國產最強開源 API 網關,沒有之一,不接受任何反駁!

本文主要分析了 NGINX、Kong、APISIX、Tyk、Zuul、Gravitee 幾個開源 API 網關架構及基本功能,測試了一定場景下各個 API 網關的性能。

在微服務的架構下,API 網關是一個常見的架構設計模式。以下是微服務中常見的問題,需要引入 API 網關來協助解決。

常見的 API 網關主要提供以下的功能:

有很多的開源軟件可以提供 API 網關的支持,下面我們就看看他們各自的架構和功能。

爲了對這些開源網關進行基本功能的驗證,我創建了一些代碼,使用 OpenAPI 生成了四個基本的 API 服務,包含 Golang,Nodejs,Python Flask 和 Java Spring。API 使用了常見的寵物商店的樣例,聲明如下:

openapi: "3.0.0"
info:
  version: 1.0.0
  title: Swagger Petstore
  license:
    name: MIT
servers:
  - url: http://petstore.swagger.io/v1
paths:
  /pets:
    get:
      summary: List all pets
      operationId: listPets
      tags:
        - pets
      parameters:
        - name: limit
          in: query
          description: How many items to return at one time (max 100)
          required: false
          schema:
            type: integer
            format: int32
      responses:
        '200':
          description: A paged array of pets
          headers:
            x-next:
              description: A link to the next page of responses
              schema:
                type: string
          content:
            application/json:
              schema:
                $ref"#/components/schemas/Pets"
        default:
          description: unexpected error
          content:
            application/json:
              schema:
                $ref"#/components/schemas/Error"
    post:
      summary: Create a pet
      operationId: createPets
      tags:
        - pets
      responses:
        '201':
          description: Null response
        default:
          description: unexpected error
          content:
            application/json:
              schema:
                $ref"#/components/schemas/Error"
  /pets/{petId}:
    get:
      summary: Info for a specific pet
      operationId: showPetById
      tags:
        - pets
      parameters:
        - name: petId
          in: path
          required: true
          description: The id of the pet to retrieve
          schema:
            type: string
      responses:
        '200':
          description: Expected response to a valid request
          content:
            application/json:
              schema:
                $ref"#/components/schemas/Pet"
        default:
          description: unexpected error
          content:
            application/json:
              schema:
                $ref"#/components/schemas/Error"
components:
  schemas:
    Pet:
      type: object
      required:
        - id
        - name
      properties:
        id:
          type: integer
          format: int64
        name:
          type: string
        tag:
          type: string
    Pets:
      type: array
      items:
        $ref"#/components/schemas/Pet"
    Error:
      type: object
      required:
        - code
        - message
      properties:
        code:
          type: integer
          format: int32
        message:
          type: string

構建好的 Web 服務通過 Docker Compose 來進行容器化的部署。

version: "3.7"
services:
  goapi:
    container_name: goapi
    image: naughtytao/goapi:0.1
    ports:
      - "18000:8080"
    deploy:
      resources:
        limits:
          cpus: '1'
          memory: 256M
        reservations:
          memory: 256M
  nodeapi:
    container_name: nodeapi
    image: naughtytao/nodeapi:0.1
    ports:
      - "18001:8080"
    deploy:
      resources:
        limits:
          cpus: '1'
          memory: 256M
        reservations:
          memory: 256M
  flaskapi:
    container_name: flaskapi
    image: naughtytao/flaskapi:0.1
    ports:
      - "18002:8080"
    deploy:
      resources:
        limits:
          cpus: '1'
          memory: 256M
        reservations:
          memory: 256M
  springapi:
    container_name: springapi
    image: naughtytao/springapi:0.1
    ports:
      - "18003:8080"
    deploy:
      resources:
        limits:
          cpus: '1'
          memory: 256M
        reservations:
          memory: 256M

網關轉發數據

我們在學習這些開源網關架構的同時,也會對其最基本的路由轉發功能作出驗證。這裏用戶發送的請求http://server/service\_name/v1/pets會發送給 API 網關,網關通過 service name 來路由到不同的後端服務。

併發跑 1000 次測試

我們使用 K6 用 100 個併發跑 1000 次測試的結果如上圖,我們看到直連的綜合響應,每秒可以處理的請求數量大概是 1100+。

Nginx

Nginx 是異步框架的網頁服務器,也可以用作反向代理、負載平衡器和 HTTP 緩存。該軟件由伊戈爾 · 賽索耶夫創建並於 2004 年首次公開發布。2011 年成立同名公司以提供支持。2019 年 3 月 11 日,Nginx 公司被 F5 Networks 以 6.7 億美元收購。

Nginx 有以下的特點:

  1. 由 C 編寫,佔用的資源和內存低,性能高。

  2. 單進程多線程,當啓動 nginx 服務器,會生成一個 master 進程,master 進程會 fork 出多個 worker 進程,由 worker 線程處理客戶端的請求。

  3. 支持反向代理,支持 7 層負載均衡(拓展負載均衡的好處)。

  4. 高併發,nginx 是異步非阻塞型處理請求,採用的 epollandqueue 模式

  5. 處理靜態文件速度快

  6. 高度模塊化,配置簡單。社區活躍,各種高性能模塊出品迅速。

Nginx 架構圖

如上圖所示,Nginx 主要由 Master,Worker 和 Proxy Cache 三個部分組成。

爲了實現 API 的路由轉發,需要只需要對 Nginx 作出如下的配置:

server {
    listen 80 default_server;

    location /goapi {
        rewrite ^/goapi(.*) $1 break;
        proxy_pass  http://goapi:8080;
    }

    location /nodeapi {
        rewrite ^/nodeapi(.*) $1 break;
        proxy_pass  http://nodeapi:8080;
    }

    location /flaskapi {
        rewrite ^/flaskapi(.*) $1 break;
        proxy_pass  http://flaskapi:8080;
    }

    location /springapi {
        rewrite ^/springapi(.*) $1 break;
        proxy_pass  http://springapi:8080;
    }
}

我們基於不同的服務 goapi,nodeapi,flaskapi 和 springapi,分別配置一條路由,在轉發之前,需要利用 rewrite 來去掉服務名,併發送給對應的服務。

使用容器把 ngnix 和後端的四個服務部署在同一個網絡下,通過網關連接路由轉發的。Nginx 的部署如下:

version: "3.7"
services:
  web:
    container_name: nginx
    image: nginx
    volumes:
      - ./templates:/etc/nginx/templates
      - ./conf/default.conf:/etc/nginx/conf.d/default.conf
    ports:
      - "8080:80"
    environment:
      - NGINX_HOST=localhost
      - NGINX_PORT=80
    deploy:
      resources:
        limits:
          cpus: '1'
          memory: 256M
        reservations:
          memory: 256M

K6 通過 Nginx 網關的測試結果如下:

nginx 網關性能測試

每秒處理的請求數量是 1093,和不通過網關轉發相比非常接近。

從功能上看,Nginx 可以滿足用戶對於 API 網關的大部分需求,可以通過配置和插件的方式來支持不同的功能,性能非常優秀,缺點是沒有管理的 UI 和管理 API,大部分的工作都需要手工配置 config 文件的方式來進行。商業版本的功能會更加完善。

Kong

Kong 是基於 NGINX 和 OpenResty 的開源 API 網關。

Kong 的總體基礎結構由三個主要部分組成:NGINX 提供協議實現和工作進程管理,OpenResty 提供 Lua 集成並掛鉤到 NGINX 的請求處理階段,而 Kong 本身利用這些掛鉤來路由和轉換請求。數據庫支持 Cassandra 或 Postgres 存儲所有配置。

Kong

Kong 附帶各種插件,提供訪問控制,安全性,緩存和文檔等功能。它還允許使用 Lua 語言編寫和使用自定義插件。Kong 也可以部署爲 Kubernetes Ingress 並支持 GRPC 和 WebSockets 代理。

NGINX 提供了強大的 HTTP 服務器基礎結構。它處理 HTTP 請求處理,TLS 加密,請求日誌記錄和操作系統資源分配(例如,偵聽和管理客戶端連接以及產生新進程)。

NGINX 具有一個聲明性配置文件,該文件位於其主機操作系統的文件系統中。雖然僅通過 NGINX 配置就可以實現某些 Kong 功能(例如,基於請求的 URL 確定上游請求路由),但修改該配置需要一定級別的操作系統訪問權限,以編輯配置文件並要求 NGINX 重新加載它們,而 Kong 允許用戶執行以下操作:通過 RESTful HTTP API 更新配置。Kong 的 NGINX 配置是相當基本的:除了配置標準標頭,偵聽端口和日誌路徑外,大多數配置都委託給 OpenResty。

在某些情況下,在 Kong 的旁邊添加自己的 NGINX 配置非常有用,例如在 API 網關旁邊提供靜態網站。在這種情況下,您可以修改 Kong 使用的配置模板。

NGINX 處理的請求經過一系列階段。NGINX 的許多功能(例如,使用 C 語言編寫的模塊)都提供了進入這些階段的功能(例如,使用 gzip 壓縮的功能)。雖然可以編寫自己的模塊,但是每次添加或更新模塊時都必須重新編譯 NGINX。爲了簡化添加新功能的過程,Kong 使用了 OpenResty。

OpenResty 是一個軟件套件,捆綁了 NGINX,一組模塊,LuaJIT 和一組 Lua 庫。其中最主要的是 ngx_http_lua_module 一個 NGINX 模塊,該模塊嵌入 Lua 併爲大多數 NGINX 請求階段提供 Lua 等效項。這有效地允許在 Lua 中開發 NGINX 模塊,同時保持高性能(LuaJIT 相當快),並且 Kong 用它來提供其核心配置管理和插件管理基礎結構。

Kong 通過其插件體系結構提供了一個框架,可以掛接到上述請求階段。從上面的示例開始,Key Auth 和 ACL 插件都控制客戶端(也稱爲使用者)是否應該能夠發出請求。每個插件都在其處理程序中定義了自己的訪問函數,並且該函數針對通過給定路由或服務啓用的每個插件執行 kong.access()。執行順序由優先級值決定 - 如果 Key Auth 的優先級爲 1003,ACL 的優先級爲 950,則 Kong 將首先執行 Key Auth 的訪問功能,如果它不放棄請求,則將執行 ACL,然後再通過將該 ACL 傳遞給上游 proxy_pass。

由於 Kong 的請求路由和處理配置是通過其 admin API 控制的,因此可以在不編輯底層 NGINX 配置的情況下即時添加和刪除插件配置,因爲 Kong 本質上提供了一種在 API 中注入位置塊(通過 API 定義)和配置的方法。它們(通過將插件,證書等分配給這些 API)。

我們使用以下的配置部署 Kong 到容器中(省略四個微服務的部署)

version: '3.7'

volumes:
  kong_data: {}

networks:
  kong-net:
    external: false

services:
  kong:
    image: "${KONG_DOCKER_TAG:-kong:latest}"
    user: "${KONG_USER:-kong}"
    depends_on:
      - db
    environment:
      KONG_ADMIN_ACCESS_LOG: /dev/stdout
      KONG_ADMIN_ERROR_LOG: /dev/stderr
      KONG_ADMIN_LISTEN: '0.0.0.0:8001'
      KONG_CASSANDRA_CONTACT_POINTS: db
      KONG_DATABASE: postgres
      KONG_PG_DATABASE: ${KONG_PG_DATABASE:-kong}
      KONG_PG_HOST: db
      KONG_PG_USER: ${KONG_PG_USER:-kong}
      KONG_PROXY_ACCESS_LOG: /dev/stdout
      KONG_PROXY_ERROR_LOG: /dev/stderr
      KONG_PG_PASSWORD_FILE: /run/secrets/kong_postgres_password
    secrets:
      - kong_postgres_password
    networks:
      - kong-net
    ports:
      - "8080:8000/tcp"
      - "127.0.0.1:8001:8001/tcp"
      - "8443:8443/tcp"
      - "127.0.0.1:8444:8444/tcp"
    healthcheck:
      test: ["CMD""kong""health"]
      interval: 10s
      timeout: 10s
      retries: 10
    restart: on-failure
    deploy:
      restart_policy:
        condition: on-failure

  db:
    image: postgres:9.5
    environment:
      POSTGRES_DB: ${KONG_PG_DATABASE:-kong}
      POSTGRES_USER: ${KONG_PG_USER:-kong}
      POSTGRES_PASSWORD_FILE: /run/secrets/kong_postgres_password
    secrets:
      - kong_postgres_password
    healthcheck:
      test: ["CMD""pg_isready""-U""${KONG_PG_USER:-kong}"]
      interval: 30s
      timeout: 30s
      retries: 3
    restart: on-failure
    deploy:
      restart_policy:
        condition: on-failure
    stdin_open: true
    tty: true
    networks:
      - kong-net
    volumes:
      - kong_data:/var/lib/postgresql/data
secrets:
  kong_postgres_password:
    file: ./POSTGRES_PASSWORD

數據庫選擇了 PostgreSQL。

開源版本沒有 Dashboard,我們使用 RestAPI 創建所有的網關路由:

curl -i -X POST http://localhost:8001/services \
    --data name=goapi \
    --data url='http://goapi:8080'
 curl -i -X POST http://localhost:8001/services/goapi/routes \
  --data 'paths[]=/goapi' \
    --data name=goapi

需要先創建一個 service,然後在該 service 下創建一條路由。

使用 K6 壓力測試的結果如下:

Kong 壓測結果

每秒請求數 705 要明顯弱於 Nginx,所以所有的功能都是有成本的。

APISIX

Apache APISIX 是一個動態、實時、高性能的 API 網關, 提供負載均衡、動態上游、灰度發佈、服務熔斷、身份認證、可觀測性等豐富的流量管理功能。

APISIX 於 2019 年 4 月由中國的支流科技創建,於 6 月開源,並於同年 10 月進入 Apache 孵化器。支流科技對應的商業化產品的名字叫 API7 :)。APISIX 旨在處理大量請求,並具有較低的二次開發門檻。

APISIX 的主要功能和特點有:

從這個角度來看,API 網關可以替代 Nginx 來處理南北流量,也可以扮演 Istio 控制平面和 Envoy 數據平面的角色來處理東西向流量。

APISIX 的架構如下圖所示:

APISIX 的架構

APISIX 包含一個數據平面,用於動態控制請求流量;一個用於存儲和同步網關數據配置的控制平面,一個用於協調插件的 AI 平面,以及對請求流量的實時分析和處理。

它構建在 Nginx 反向代理服務器和鍵值存儲 etcd 的之上,以提供輕量級的網關。它主要用 Lua 編寫,Lua 是類似於 Python 的編程語言。它使用 Radix 樹進行路由,並使用前綴樹進行 IP 匹配。

使用 etcd 而不是關係數據庫來存儲配置可以使它更接近雲原生,但是即使在任何服務器宕機的情況下,也可以確保整個網關係統的可用性。

所有組件都是作爲插件編寫的,因此其模塊化設計意味着功能開發人員只需要關心自己的項目即可。

內置的插件包括流控和速度限制,身份認證,請求重寫,URI 重定向,開放式跟蹤和無服務器。APISIX 支持 OpenResty 和 Tengine 運行環境,並且可以在 Kubernetes 的裸機上運行。它同時支持 X86 和 ARM64。

我們同樣使用 Docker Compose 來部署 APISIX。

version: "3.7"

services:
  apisix-dashboard:
    image: apache/apisix-dashboard:2.4
    restart: always
    volumes:
    - ./dashboard_conf/conf.yaml:/usr/local/apisix-dashboard/conf/conf.yaml
    ports:
    - "9000:9000"
    networks:
      apisix:
        ipv4_address: 172.18.5.18

  apisix:
    image: apache/apisix:2.3-alpine
    restart: always
    volumes:
      - ./apisix_log:/usr/local/apisix/logs
      - ./apisix_conf/config.yaml:/usr/local/apisix/conf/config.yaml:ro
    depends_on:
      - etcd
    ##network_mode: host
    ports:
      - "8080:9080/tcp"
      - "9443:9443/tcp"
    networks:
      apisix:
        ipv4_address: 172.18.5.11
    deploy:
      resources:
        limits:
          cpus: '1'
          memory: 256M
        reservations:
          memory: 256M

  etcd:
    image: bitnami/etcd:3.4.9
    user: root
    restart: always
    volumes:
      - ./etcd_data:/etcd_data
    environment:
      ETCD_DATA_DIR: /etcd_data
      ETCD_ENABLE_V2: "true"
      ALLOW_NONE_AUTHENTICATION: "yes"
      ETCD_ADVERTISE_CLIENT_URLS: "http://0.0.0.0:2379"
      ETCD_LISTEN_CLIENT_URLS: "http://0.0.0.0:2379"
    ports:
      - "2379:2379/tcp"
    networks:
      apisix:
        ipv4_address: 172.18.5.10

networks:
  apisix:
    driver: bridge
    ipam:
      config:
      - subnet: 172.18.0.0/16

開源的 APISIX 支持 Dashboard 的方式來管理路由,而不是像 KONG 把儀表盤功能限制在商業版本中。但是 APISIX 的儀表盤不支持對路由 URI 進行改寫,所以我們只好使用 RestAPI 來創建路由。

創建一個服務的路由的命令如下:

curl --location --request PUT 'http://127.0.0.1:8080/apisix/admin/routes/1' \
--header 'X-API-KEY: edd1c9f034335f136f87ad84b625c8f1' \
--header 'Content-Type: text/plain' \
--data-raw '{
    "uri": "/goapi/*",
    "plugins": {
        "proxy-rewrite": {
            "regex_uri": ["^/goapi(.*)$","$1"]
        }
    },
    "upstream": {
        "type": "roundrobin",
        "nodes": {
            "goapi:8080": 1
        }
    }
}'

使用 K6 壓力測試的結果如下:

APISIX 壓測結果

APISIX 取得了 1155 的好成績,表現出接近不經過網關的性能,可能緩存起到了很好的效果。

Tyk

Tyk 是一款基於 Golang 和 Redis 構建的開源 API 網關。它於 2014 年創建,比 AWS 的 API 網關即服務功能早。Tyk 用 Golang 編寫,並使用 Golang 自己的 HTTP 服務器。

Tyk 支持不同的運行方式:雲,混合(在自己的基礎架構中爲 GW)和本地。

Tyk 網關

Tyk 由 3 個組件組成:

我們同樣使用 Docker Compose 來創建 Tyk  網關來進行功能驗證。

version: '3.7'
services:
  tyk-gateway:
    image: tykio/tyk-gateway:v3.1.1
    ports:
      - 8080:8080
    volumes:
      - ./tyk.standalone.conf:/opt/tyk-gateway/tyk.conf
      - ./apps:/opt/tyk-gateway/apps
      - ./middleware:/opt/tyk-gateway/middleware
      - ./certs:/opt/tyk-gateway/certs
    environment:
      - TYK_GW_SECRET=foo
    depends_on:
      - tyk-redis
  tyk-redis:
    image: redis:5.0-alpine
    ports:
      - 6379:6379

Tyk 的 Dashboard 也是屬於商業版本的範疇,所我們又一次需要藉助 API 來創建路由,Tyk 是通過 app 的概念來創建和管理路由的,你也可以直接寫 app 文件。

curl --location --request POST 'http://localhost:8080/tyk/apis/' \
--header 'x-tyk-authorization: foo' \
--header 'Content-Type: application/json' \
--data-raw '{
    "name": "GO API",
    "slug": "go-api",
    "api_id": "goapi",
    "org_id": "goapi",
    "use_keyless": true,
    "auth": {
      "auth_header_name": "Authorization"
    },
    "definition": {
      "location": "header",
      "key": "x-api-version"
    },
    "version_data": {
      "not_versioned": true,
      "versions": {
        "Default": {
          "name": "Default",
          "use_extended_paths": true
        }
      }
    },
    "proxy": {
      "listen_path": "/goapi/",
      "target_url": "http://host.docker.internal:18000/",
      "strip_listen_path": true
    },
    "active": true
}'

使用 K6 壓力測試的結果如下:

Tyk 壓力測試

Tyk 的結果在 400-600 左右,性能上和 KONG 接近。

Zuul

Zuul 是 Netflix 開源的基於 Java 的 API 網關組件。

Zuul 網關

Zuul 包含多個組件:

Zuul 提供了靈活性和彈性,部分是通過利用其他 Netflix OSS 組件進行的:

Zuul 的核心是一系列過濾器,它們能夠在路由 HTTP 請求和響應期間執行一系列操作。以下是 Zuul 過濾器的主要特徵:

class DeviceDelayFilter extends ZuulFilter {
    def static Random rand = new Random()
    @Override
    String filterType() {
       return 'pre'
    }

    @Override
    int filterOrder() {
       return 5
    }

    @Override
    boolean shouldFilter() {
       return  RequestContext.getRequest().
       getParameter("deviceType")?equals("BrokenDevice"):false
    }

    @Override
    Object run() {
       sleep(rand.nextInt(20000)) // Sleep for a random number of
                                  // seconds between [0-20]
    }
}

Zuul 提供了一個框架來動態讀取,編譯和運行這些過濾器。過濾器不直接相互通信 - 而是通過每個請求唯一的 RequestContext 共享狀態。過濾器使用 Groovy 編寫。

Zuul 結構圖

有幾種與請求的典型生命週期相對應的標準過濾器類型:

Spring Cloud 創建了一個嵌入式 Zuul 代理,以簡化一個非常常見的用例的開發,在該用例中,UI 應用程序希望代理對一個或多個後端服務的調用。此功能對於用戶界面代理所需的後端服務很有用,從而避免了爲所有後端獨立管理 CORS 和身份驗證問題的需求 。

要啓用它,請使用 @EnableZuulProxy 註解一個 Spring Boot 主類,這會將本地調用轉發到適當的服務。

Zuul 是 Java 的一個庫,他並不是一款開箱即用的 API 網關,所以需要用 Zuul 開發一個應用來對其功能進行測試。

對應的 Java 的 POM 如下:

<project
    xmlns="http://maven.apache.org/POM/4.0.0"
    xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>
    <groupId>naughtytao.apigateway</groupId>
    <artifactId>demo</artifactId>
    <version>0.0.1-SNAPSHOT</version>
    <parent>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-parent</artifactId>
        <version>1.4.7.RELEASE</version>
        <relativePath />
        <!-- lookup parent from repository -->
    </parent>
    <properties>
        <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
        <project.reporting.outputEncoding>UTF-8</project.reporting.outputEncoding>
        <java.version>1.8</java.version>
        <!-- Dependencies -->
        <spring-cloud.version>Camden.SR7</spring-cloud.version>
    </properties>
    <dependencyManagement>
        <dependencies>
            <dependency>
                <groupId>org.springframework.cloud</groupId>
                <artifactId>spring-cloud-dependencies</artifactId>
                <version>${spring-cloud.version}</version>
                <type>pom</type>
                <scope>import</scope>
            </dependency>
        </dependencies>
    </dependencyManagement>
    <dependencies>
        <dependency>
            <groupId>org.springframework.cloud</groupId>
            <artifactId>spring-cloud-starter-zuul</artifactId>
        </dependency>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-actuator</artifactId>
            <exclusions>
                <exclusion>
                    <groupId>org.springframework.boot</groupId>
                    <artifactId>spring-boot-starter-logging</artifactId>
                </exclusion>
            </exclusions>
        </dependency>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-log4j2</artifactId>
        </dependency>

        <!-- enable authentication if security is included -->
        <!-- <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-security</artifactId>
        </dependency> -->
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-web</artifactId>
        </dependency>
        <!-- API, java.xml.bind module -->
        <dependency>
            <groupId>jakarta.xml.bind</groupId>
            <artifactId>jakarta.xml.bind-api</artifactId>
            <version>2.3.2</version>
        </dependency>

        <!-- Runtime, com.sun.xml.bind module -->
        <dependency>
            <groupId>org.glassfish.jaxb</groupId>
            <artifactId>jaxb-runtime</artifactId>
            <version>2.3.2</version>
        </dependency>
  <dependency>
   <groupId>org.springframework.boot</groupId>
   <artifactId>spring-boot-starter-test</artifactId>
   <scope>test</scope>
  </dependency>
  <dependency>
   <groupId>org.junit.jupiter</groupId>
   <artifactId>junit-jupiter-api</artifactId>
   <version>5.0.0-M5</version>
   <scope>test</scope>
  </dependency>
    </dependencies>
    <build>
        <plugins>
            <plugin>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-maven-plugin</artifactId>
   </plugin>
   <plugin>
    <groupId>org.apache.maven.plugins</groupId>
    <artifactId>maven-compiler-plugin</artifactId>
    <version>3.3</version>
    <configuration>
     <source>1.8</source>
     <target>1.8</target>
    </configuration>
   </plugin>
        </plugins>
    </build>
</project>

主要應用代碼如下:

package naughtytao.apigateway.demo;

import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.EnableAutoConfiguration;
import org.springframework.boot.autoconfigure.SpringBootApplication;
import org.springframework.boot.autoconfigure.amqp.RabbitAutoConfiguration;
import org.springframework.cloud.netflix.zuul.EnableZuulProxy;
import org.springframework.context.annotation.ComponentScan;
import org.springframework.context.annotation.Bean;

import naughtytao.apigateway.demo.filters.ErrorFilter;
import naughtytao.apigateway.demo.filters.PostFilter;
import naughtytao.apigateway.demo.filters.PreFilter;
import naughtytao.apigateway.demo.filters.RouteFilter;

@SpringBootApplication
@EnableAutoConfiguration(exclude = { RabbitAutoConfiguration.class })
@EnableZuulProxy
@ComponentScan("naughtytao.apigateway.demo")
public class DemoApplication {

    public static void main(String[] args) {
        SpringApplication.run(DemoApplication.class, args);
    }
}

Docker 構建文件如下:

FROM maven:3.6.3-openjdk-11
WORKDIR /usr/src/app
COPY src ./src
COPY pom.xml ./
RUN mvn -f ./pom.xml clean package -Dmaven.wagon.http.ssl.insecure=true -Dmaven.wagon.http.ssl.allowall=true -Dmaven.wagon.http.ssl.ignore.validity.dates=true 

EXPOSE 8080
ENTRYPOINT ["java","-jar","/usr/src/app/target/demo-0.0.1-SNAPSHOT.jar"]

路由的配置寫在 application.properties 中

#Zuul routes.
zuul.routes.goapi.url=http://goapi:8080
zuul.routes.nodeapi.url=http://nodeapi:8080
zuul.routes.flaskapi.url=http://flaskapi:8080
zuul.routes.springapi.url=http://springapi:8080

ribbon.eureka.enabled=false
server.port=8080

我們同樣使用 Docker Compose 運行 Zuul 的網關來進行驗證:

version: '3.7'
services:
  gateway:
    image: naughtytao/zuulgateway:0.1
    ports:
      - 8080:8080
    volumes:
      - ./config/application.properties:/usr/src/app/config/application.properties
    deploy:
      resources:
        limits:
          cpus: '1'
          memory: 256M
        reservations:
          memory: 256M

使用 K6 壓力測試的結果如下:

Zuul 壓測結果

在相同的配置條件下(單核,256M),Zuul 的壓測結果要明顯差於其它幾個,只有 200 左右。

在分配更多資源的情況下,4 核 2G,Zuul 的性能提升到 600-800,所以 Zuul 對於資源的需求還是比較明顯的。

另外需要提及的是,我們使用的是 Zuul1,Netflix 已經推出了 Zuul2。Zuul2 對架構做出了較大的改進。Zuul1 本質上就是一個同步 Servlet,採用多線程阻塞模型。Zuul2 的基於 Netty 實現了異步非阻塞編程模型。同步的方式,比較容易調試,但是多線程本身需要消耗 CPU 和內存資源,所以它的性能要差一些。而採用非阻塞模式的 Zuul,因爲線程開銷小,所支持的鏈接數量要更多,也更節省資源。

Gravitee

Gravitee 是 http://Gravitee.io 開源的,基於 Java 的,簡單易用,性能高,且具成本效益的開源 API 平臺,可幫助組織保護,發佈和分析您的 API。

Gravitee 網關

Gravitee 可以通過設計工作室和路徑的兩種方式來創建和管理 API

Gravitee 管理 api

Gravity 提供網關,API 門戶和 API 管理,其中網關和管理 API 部分是開源的,門戶需要註冊許可證來使用。

Gravity

Gravity

後臺使用 MongoDB 作爲存儲,支持 ES 接入。

我們同樣使用 Docker Compose 來部署整個 Gravitee 的棧。

version: '3.7'

networks:
  frontend:
    name: frontend
  storage:
    name: storage

volumes:
  data-elasticsearch:
  data-mongo:

services:
  mongodb:
    image: mongo:${MONGODB_VERSION:-3.6}
    container_name: gio_apim_mongodb
    restart: always
    volumes:
      - data-mongo:/data/db
      - ./logs/apim-mongodb:/var/log/mongodb
    networks:
      - storage

  elasticsearch:
    image: docker.elastic.co/elasticsearch/elasticsearch:${ELASTIC_VERSION:-7.7.0}
    container_name: gio_apim_elasticsearch
    restart: always
    volumes:
      - data-elasticsearch:/usr/share/elasticsearch/data
    environment:
      - http.host=0.0.0.0
      - transport.host=0.0.0.0
      - xpack.security.enabled=false
      - xpack.monitoring.enabled=false
      - cluster.name=elasticsearch
      - bootstrap.memory_lock=true
      - discovery.type=single-node
      - "ES_JAVA_OPTS=-Xms512m -Xmx512m"
    ulimits:
      memlock:
        soft: -1
        hard: -1
      nofile: 65536
    networks:
      - storage

  gateway:
    image: graviteeio/apim-gateway:${APIM_VERSION:-3}
    container_name: gio_apim_gateway
    restart: always
    ports:
      - "8082:8082"
    depends_on:
      - mongodb
      - elasticsearch
    volumes:
      - ./logs/apim-gateway:/opt/graviteeio-gateway/logs
    environment:
      - gravitee_management_mongodb_uri=mongodb://mongodb:27017/gravitee?serverSelectionTimeoutMS=5000&connectTimeoutMS=5000&socketTimeoutMS=5000
      - gravitee_ratelimit_mongodb_uri=mongodb://mongodb:27017/gravitee?serverSelectionTimeoutMS=5000&connectTimeoutMS=5000&socketTimeoutMS=5000
      - gravitee_reporters_elasticsearch_endpoints_0=http://elasticsearch:9200
    networks:
      - storage
      - frontend
    deploy:
      resources:
        limits:
          cpus: '1'
          memory: 256M
        reservations:
          memory: 256M

  management_api:
    image: graviteeio/apim-management-api:${APIM_VERSION:-3}
    container_name: gio_apim_management_api
    restart: always
    ports:
      - "8083:8083"
    links:
      - mongodb
      - elasticsearch
    depends_on:
      - mongodb
      - elasticsearch
    volumes:
      - ./logs/apim-management-api:/opt/graviteeio-management-api/logs
    environment:
      - gravitee_management_mongodb_uri=mongodb://mongodb:27017/gravitee?serverSelectionTimeoutMS=5000&connectTimeoutMS=5000&socketTimeoutMS=5000
      - gravitee_analytics_elasticsearch_endpoints_0=http://elasticsearch:9200
    networks:
      - storage
      - frontend

  management_ui:
    image: graviteeio/apim-management-ui:${APIM_VERSION:-3}
    container_name: gio_apim_management_ui
    restart: always
    ports:
      - "8084:8080"
    depends_on:
      - management_api
    environment:
      - MGMT_API_URL=http://localhost:8083/management/organizations/DEFAULT/environments/DEFAULT/
    volumes:
      - ./logs/apim-management-ui:/var/log/nginx
    networks:
      - frontend

  portal_ui:
    image: graviteeio/apim-portal-ui:${APIM_VERSION:-3}
    container_name: gio_apim_portal_ui
    restart: always
    ports:
      - "8085:8080"
    depends_on:
      - management_api
    environment:
      - PORTAL_API_URL=http://localhost:8083/portal/environments/DEFAULT
    volumes:
      - ./logs/apim-portal-ui:/var/log/nginx
    networks:
      - frontend

我們使用管理 UI 來創建四個對應的 API 來進行網關的路由,也可以用 API 的方式,Gravitee 是這個開源網關中,唯一管理 UI 也開源的產品。

Gravitee

使用 K6 壓力測試的結果如下:

Gravitee 壓測

和同樣採用 Java 的 Zuul 類似,Gravitee 的響應只能達到 200 左右,而且還出現了一些錯誤。我們只好再一次提高網關的資源分配到 4 核 2G。

Gravitee 壓測

提高資源分配後的性能來到了 500-700,稍微好於 Zuul。

總結

本文分析了幾種開源 API 網關的架構和基本功能,爲大家在架構選型的時候提供一些基本的參考信息,本文做作的測試數據比較簡單,場景也比較單一,不能作爲實際選型的依據。

本文所有的代碼可以從這裏獲得 https://github.com/gangtao/api-gateway

本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://mp.weixin.qq.com/s/oeSy5fYQEo3gdVxT0aGkMw