高性能網關設計實踐

前言

本文希望通過對網關設計的介紹來簡單總結一下 OpenResty 的相關知識點,爭取讓大家對 OpenResty 這種高性能 Web 平臺有一個比較全面的瞭解。本文會從以下幾個方面來講解。

網關的作用

網關作爲所有請求的流量入口,主要承擔着安全,限流,熔斷降級,監控,日誌,風控,鑑權等功能,網關主要有兩種類型

目前市面上比較流行的系統架構如下

可以看到接入層網關承載着公司的所有流量,對性能有很高的要求,它的設計決定着整個系統的上限。所以我們今天主要談談接入層網關的設計。

接入層網關架構設計與實現

首先我們要明白接入層網關的核心功能是:「根據路由規則將請求分發到對應的後端集羣」,所以要實現如下幾個功能模型 。

1、 路由:根據請求的 host, url 等規則轉發到指定的上游(相應的後端集羣) 2、 路由策略插件化:這是網關的**「靈魂所在」**,路由中會有身份認證,限流限速,安全防護(如 IP 黑名單,refer 異常,UA 異常,需第一時間拒絕)等規則,這些規則以插件的形式互相組合起來以便只對某一類的請求生效,每個插件都即插即用,互不影響,這些插件應該是**「動態可配置」**的,動態生效的(無須重啓服務),爲啥要可動態可配置呢,因爲每個請求對應的路由邏輯,限流規則,最終請求的後端集羣等規則是不一樣的

如圖示,兩個請求對應的路由規則是不一樣的,它們對應的路由規則(限流,rewrite)等通過各個規則插件組合在一起,可以看到,光兩個請求 url 的路由規則就有挺多的,如果一個系統大到一定程度,url 會有不少,就會有不少規則,這樣每個請求的規則就必須**「可配置化」**,**「動態化」**,最好能在管理端集中控制,統一下發。

3、後端集羣的動態變更

路由規則的應用是爲了確定某一類請求經過這些規則後最終到達哪一個集羣,而我們知道請求肯定是要打到某一臺集羣的 ip 上的,而機器的擴縮容其實是比較常見的,所以必須支持動態變更,總不能我每次上下線機器的時候都要重啓系統讓它生效吧。

4、監控統計,請求量、錯誤率統計等等

這個比較好理解,在接入層作所有流量的請求,錯誤統計,便於打點,告警,分析。

要實現這些需求就必須對我們採用的技術:OpenResty 有比較詳細的瞭解,所以下文會簡單介紹一下 OpenResty 的知識點。

技術選型

有人可能第一眼想到用 Nginx, 沒錯,由於 Nginx 採用了 epoll 模型(非阻塞 IO 模型),確實能滿足大多數場景的需求(經過優化 100 w + 的併發數不是問題),但是 Nginx 更適合作爲靜態的 Web 服務器,因爲對於 Nginx 來說,如果發生任何變化,都需要修改磁盤上的配置,然後重新加載才能生效,它並沒有提供 API 來控制運行時的行爲,而如上文所述,動態化是接入層網關非常重要的一個功能。所以經過一番調研,我們選擇了 OpenResty,啥是 OpenResty 呢,來看下官網的定義:

OpenResty® 是一個基於 Nginx 與 Lua 的高性能 Web 平臺,其內部集成了大量精良的 Lua 庫、第三方模塊以及大多數的依賴項。用於方便地搭建能夠處理超高併發、擴展性極高的動態 Web 應用、Web 服務和動態網關。OpenResty® 的目標是讓你的 Web 服務直接跑在 Nginx 服務內部,充分利用 Nginx 的非阻塞 I/O 模型,不僅僅對 HTTP 客戶端請求, 甚至於對遠程後端諸如 MySQL、PostgreSQL、Memcached 以及 Redis 等都進行一致的高性能響應。

可以簡單理解爲,OpenResty = Nginx + Lua, 通過 Lua 擴展 Nginx 實現的可伸縮的 Web 平臺 。它利用了 Nginx 的高性能,又在其基礎上添加了 Lua 的腳本語言來讓 Nginx 也具有了動態的特性。通過 OpenResty 中 lua-Nginx-module 模塊中提供的 Lua API,我們可以動態地控制路由、上游、SSL 證書、請求、響應等。甚至可以在不重啓 OpenResty 的前提下,修改業務的處理邏輯,並不侷限於 OpenResty 提供的 Lua API。

關於靜態和動態有一個很合適的類比:如果把 Web 服務器當做是一個正在高速公路上飛馳的汽車,Nginx 需要停車才能更換輪胎,更換車漆顏色,而 OpenResty 中可以邊跑邊換輪胎,更換車漆,甚至更換髮動機,直接讓普通的汽車變成超跑!

除了以上的動態性,還有兩個特性讓 OpenResty 獨出一格。

「1. 詳盡的文檔和測試用例」

作爲開源項目,文檔和測試毫無疑問是其是否靠譜的關鍵,它的文檔非常詳細,作者把每個注意的點都寫在文檔上了,多數時候只要看文檔即可,每一個測試案例都包含完整的 Nginx 配置和 lua 代碼。以及測試的輸入數據和預期的輸出數據。

「2. 同步非阻塞」

OpenResty 在誕生之初就支持了協程,並且基於此實現了同步非阻塞的編程模型。

「畫外音:協程(coroutine)我們可以將它看成一個用戶態的線程,只不過這個線程是我們自己調度的,而且不同協程的切換不需要陷入內核態,效率比較高。(一般我們說的線程是要指內核態線程,由內核調度,需要從用戶空間陷入內核空間,相比協程,對性能會有不小的影響)」

啥是同步非阻塞呢。假設有以下兩個兩行代碼:

local res, err  = query-mysql(sql)
local value, err = query-redis(key)

「同步」:必須執行完查詢 mysql,才能執行下面的 redis 查詢,如果不等 mysql 執行完成就能執行 redis 則是異步。

「阻塞」:假設執行 sql 語句需要 1s,如果在這 1s 內,CPU 只能乾等着不能做其它任何事,那就是阻塞,如果在 sql 執行期間可以做其他事(注意由於是同步的,所以不能執行以下的 redis 查詢),則是非阻塞。

同步關注的是語句的先後執行順序,如果上一個語句必須執行完才能執行下一個語句就是同步,如果不是,就是異步,阻塞關注的是線程是 CPU 是否需要在 IO 期間乾等着,如果在 IO(或其他耗時操作期間)期間可以做其他事,那就是非阻塞,不能動,則是阻塞。

那麼 OpenResty 的工作原理是怎樣的呢,又是如何實現同步非阻塞的呢。

OpenResty 原理剖析

工作原理剖析

由於 OpenResty 基於 Nginx 實現的,我們先來看看 Nginx 的工作原理

Nginx 啓動後,會有一個 master 進程和多個 worker 進程 , master 進程接受管理員的信號量(如 Nginx -s reload, -s stop)來管理 worker 進程,master 本身並不接收 client 的請求,主要由 worker 進程來接收請求,不同於 apache 的每個請求會佔用一個線程,且是同步 IO,Nginx 是異步非阻塞的,每個 worker 可以同時處理的請求數只受限於內存大小,這裏就要簡單地瞭解一下 nginx 採用的 epoll 模型:

epoll 採用多路複用模型,即同一時間雖然可能會有多個請求進來, 但只會用一個線程去監視,然後哪個請求數據準備好了,就調用相應的線程去處理,就像圖中所示,如同撥開關一樣,同一時間只有一個線程在處理, Nginx 底層就是用的 epoll ,基於事件驅動模型,每個請求進來註冊事件並註冊 callback 回調函數,等數據准入好了,就調用回調函數進行處理,它是異步非阻塞的,所以性能很高。

打個簡單的比方,我們都有訂票的經驗,當我們委託酒店訂票時,接待員會先把我們的電話號碼和相關信息等記下來(註冊事件),掛斷電話後接待員在操作期間我們就可以去做其他事了(非阻塞),當接待員把手續搞好後會主動打電話給我們通知我們票訂好了(回調)。

worker 進程是從  master fork  出來的,這意味着 worker 進程之間是互相獨立的,這樣不同 worker 進程之間處理併發請求幾乎沒有同步鎖的限制,好處就是一個 worker 進程掛了,不會影響其他進程,我們一般把 worker 數量設置成和 CPU 的個數,這樣可以減少不必要的 CPU 切換,提升性能,每個 worker 都是單線程執行的。那麼 LuaJIT 在 OpenResty 架構中的位置是怎樣的呢。

首先啓動的 master 進程帶有 LuaJIT 的機虛擬,而 worker 進程是從 master 進程 fork 出來的,在 worker 內進程的工作主要由 Lua 協程來完成,也就是說在同一個 worker 內的所有協程,都會共享這個 LuaJIT 虛擬機,每個 worker 進程裏 lua 的執行也是在這個虛擬機中完成的。

同一個時間點,worker 進程只能處理一個用戶請求,也就是說只有一個 lua 協程在運行,那爲啥 OpenResty 能支持百萬併發請求呢,這就需要了解 Lua 協程與 Nginx 事件機制是如何配合的了。

如圖示,當用 Lua 調用查詢 MySQL 或 網絡 IO 時,虛擬機會調用 Lua 協程的 yield 把自己掛起,在 Nginx 中註冊回調,此時 worker 就可以處理另外的請求了(非阻塞),等到 IO 事件處理完了, Nginx 就會調用 resume 來喚醒 lua 協程。

事實上,由 OpenResty 提供的所有 API,都是非阻塞的,下文提到的與 MySQL,Redis 等交互,都是非阻塞的,所以性能很高。

OpenResty 請求生命週期

Nginx 的每個請求有 11 個階段,OpenResty 也有 11 個 *_by_lua 的指令,如下圖示:

各個階段 *_by_lua 的解釋如下

set_by_lua:設置變量;
rewrite_by_lua:轉發、重定向等;
access_by_lua:准入、權限等;
content_by_lua:生成返回內容;
header_filter_by_lua:應答頭過濾處理;
body_filter_by_lua:應答體過濾處理;
log_by_lua:日誌記錄。

這樣分階段有啥好處呢,假設你原來的 API 請求都是明文的

# 明文協議版本
location /request {
    content_by_lua '...';       # 處理請求
}

現在需要對其加上加密和解密的機制,只需要在 access 階段解密, 在 body filter 階段加密即可,原來 content 的邏輯無需做任務改動,有效實現了代碼的解藕。

# 加密協議版本
location /request {
    access_by_lua '...';        # 請求體解密
    content_by_lua '...';       # 處理請求,不需要關心通信協議
    body_filter_by_lua '...';   # 應答體加密
}

再比如我們不是要要上文提到網關的核心功能之一不是要監控日誌嗎,就可以統一在 log_by_lua 上報日誌,不影響其他階段的邏輯。

worker 間共享數據利器: shared dict

worker 既然是互相獨立的進程,就需要考慮其共享數據的問題, OpenResty 提供了一種高效的數據結構: shared dict , 可以實現在 worker 間共享數據,shared dict 對外提供了 20 多個 Lua API,都是原子操作的,避免了高併發下的競爭問題。

路由策略插件化實現

有了以上 OpenResty 點的鋪墊,來看看上文提的網關核心功能 「路由策略插件化」,「後端集羣的動態變更」如何實現

首先針對某個請求的路由策略大概是這樣的

整個插件化的步驟大致如下

1、每條策略由 url ,action, cluster 等組成,代表請求 url 在打到後端集羣過程中最終經歷了哪些路由規則,這些規則統一在我們的路由管理平臺配置,存在 db 裏。

2、OpenResty 啓動時,在請求的 init 階段 worker 進程會去拉取這些規則,將這些規則編譯成一個個可執行的 lua 函數,這一個個函數就對應了一條條的規則。

需要注意的是爲了避免重複去 MySQL 中拉取數據,某個 worker 從 MySQL 拉取完規則(此步需要加鎖,避免所有 worker 都去拉取)或者後端集羣等配置信息後要將其保存在 shared dict 中,這樣之後所有的 worker 請求只要從 shared dict 中獲取這些規則,然後將其映射成對應模塊的函數即可,如果配置規則有變動呢,配置後臺通過接口通知 OpenResty 重新加載一下即可

經過路由規則確定好每個請求對應要打的後端集羣后,就需要根據 upstream 來確定最終打到哪個集羣的哪臺機器上,我們看看如何動態管理集羣。

後端集羣的動態配置

在 Nginx 中配置 upstream 的格式如下

upstream backend {
    server backend1.example.com weight=5;
    server backend2.example.com;
    server 192.0.0.1 backup;
}

以上這個示例是按照權重(weight)來劃分的,6 個請求進來,5 個請求打到 backend1.example.com, 1 個請求打到 backend2.example.com, 如果這兩臺機器都不可用,就打到 192.0.0.1,這種靜態配置的方式 upstream 的方式確實可行,但我們知道機器的擴縮容有時候比較頻繁,如果每次機器上下線都要手動去改,並且改完之後還要重新去 reload 無疑是不可行的,出錯的概率很大,而且每次配置都要 reload 對性能的損耗也是挺大的,爲了解決這個問題,OpenResty 提供了一個 dyups 的模塊來解決此問題, 它提供了一個 dyups api, 可以動態增,刪,創建 upsteam,所以在 init 階段我們會先去拉取集羣信息,構建 upstream,之後如果集羣信息有變動,會通過如下形式調用 dyups api 來更新 upstream

-- 動態配置 upstream 接口站點
server {
     listen 127.0.0.1:81;
      location / {
          dyups_interface;
     }
}


-- 增加 upstream:user_backend
curl -d "server 10.53.10.191;" 127.0.0.1:81/upstream/user_backend

-- 刪除 upstream:user_backend
curl -i -X DELETE 127.0.0.1:81/upstream/user_backend

使用 dyups 就解決了動態配置 upstream 的問題

網關最終架構設計圖

通過這樣的設計,最終實現了網關的配置化,動態化。

總結

網關作爲承載公司所有流量的入口,對性能有着極高的要求,所以技術選型上還是要慎重,之所以選擇 OpenResty,一是因爲它高性能,二是目前也有小米,阿里,騰訊等大公司在用,是久經過市場考驗的,本文通過對網關的總結簡要介紹了 OpenResty 的相關知識點,相信大家對其主要功能點應該有所瞭解了,不過 OpenResty 的知識點遠不止以上這些,大家如有興趣,可以參考文末的學習教程深入學習,相信大家會有不少啓發的。

巨人的肩膀

本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://mp.weixin.qq.com/s/L9q380oUCeyfIwnbX9sE4g