6 種事件驅動的架構模式

作者 | Natan Silnitsky

譯者 | 平川

策劃 | 萬佳

在過去一年裏,我一直是數據流團隊的一員,負責 Wix 事件驅動的消息傳遞基礎設施(基於 Kafka)。有超過 1400 個微服務使用這個基礎設施。在此期間,我實現或目睹了事件驅動消息傳遞設計的幾個關鍵模式,這些模式有助於創建一個健壯的分佈式系統,該系統可以輕鬆地處理不斷增長的流量和存儲需求。

1 消費與投影

MetaSite 服務處理大約 1M RPM 的各類請求

我們想要回答的問題是,如何以最終一致的方式將讀請求從該服務轉移出來?

 使用 Kafka 創建 “物化視圖”

負責這項服務的團隊決定另外創建一個服務,只處理 MetaSite 的一個關注點——來自客戶端服務的 “已安裝應用上下文” 請求。

已安裝應用上下文消費與投影

讀寫分離

 效果

2 端到端事件驅動

針對簡單業務流程的狀態更新

請求 - 應答模型在瀏覽器 - 服務器交互中特別常見。藉助 Kafka 和 WebSocket,我們就有了一個完整的事件流驅動,包括瀏覽器 - 服務器交互。

這使得交互過程容錯性更好,因爲消息在 Kafka 中被持久化,並且可以在服務重啓時重新處理。該架構還具有更高的可伸縮性和解耦性,因爲狀態管理完全從服務中移除,並且不需要對查詢進行數據聚合和維護。

考慮一下這種情況,將所有 Wix 用戶的聯繫方式導入 Wix 平臺。

這個過程涉及到兩個服務:Contacts Jobs 服務處理導入請求並創建導入批處理作業,Contacts Importer 執行實際的格式化並存儲聯繫人(有時藉助第三方服務)。

傳統的請求 - 應答方法需要瀏覽器不斷輪詢導入狀態,前端服務需要將狀態更新情況保存到數據庫表中,並輪詢下游服務以獲得狀態更新。

而使用 Kafka 和 WebSocket 管理者服務,我們可以實現一個完全分佈式的事件驅動過程,其中每個服務都是完全獨立工作的。

使用 Kafka 和 WebSocket 的 E2E 事件驅動

首先,瀏覽器會根據開始導入請求訂閱 WebSocket 服務。

它需要提供一個 channel-Id,以便 WebSocket 服務能夠將通知路由回正確的瀏覽器:

打開 WebSocket 通知 “通道”

第二,瀏覽器需要向 Jobs 服務發送一個 HTTP 請求,聯繫人信息使用 CSV 格式,並附加 channel-Id,這樣 Jobs 服務(和下游服務)就能夠向 WebSocket 服務發送通知。注意,HTTP 響應將立即返回,沒有任何內容。

第三,Jobs 服務在處理完請求後,會生成並向 Kafka 主題發送作業請求。

HTTP Import 請求和生成的 Import Job 消息

第四,Contacts Importer** 服務消費來自 Kafka 的作業請求,並執行實際的導入任務。當它完成時,它可以通知 WebSocket 服務作業已經完成,而 WebSocket 服務又通知瀏覽器。

工作已消費、已處理和已完成狀態通知

 效果

3 內存 KV 存儲

針對 0 延遲數據訪問

有時,我們需要動態對應用程序進行持久化配置,但我們不想爲它創建一個全面的關係數據庫表。

一個選擇是用 HBase/Cassandra/DynamoDB 爲所有應用創建一個大的寬列存儲表,其主鍵包含標識應用域的前綴(例如 “store_taxes_”)。

這個解決方案效果很好,但是通過網絡取值存在無法避免的延遲。它更適合於更大的數據集,而不僅僅是配置數據。

另一種方法是有一個位於內存但同樣具有持久性的鍵 / 值緩存——Redis AOF 提供了這種能力。

Kafka 以壓縮主題的形式爲鍵 / 值存儲提供了類似的解決方案(保留模型確保鍵的最新值不會被刪除)。

在 Wix,我們將這些壓縮主題用作內存中的 kv-store,我們在應用程序啓動時加載(消費)來自主題的數據。這有一個 Redis 沒有提供的好處,這個主題還可以被其他想要獲得更新的用戶使用。

 訂閱和查詢

考慮以下用例——兩個微服務使用壓縮主題來做數據維護:Wix Business Manager(幫助 Wix 網站所有者管理他們的業務)使用一個壓縮主題存放支持的國家列表,Wix Bookings(允許安排預約和課程)維護了一個 “(Time Zones)” 壓縮主題。從這些內存 KV 存儲中檢索值的延遲爲 0。

各內存 KV 存儲以及相應的 Kafka 壓縮主題

Wix Bookings 監聽 “國家(Countries)” 主題的更新:

Bookings 消費來自壓縮主題 Countries 的更新

當 Wix Business Manager 將另一個國家添加到 “國家” 主題時,Wix Bookings 會消費此更新,並自動爲 “時區” 主題添加一個新的時區。現在,內存 KV 存儲中的 “時區” 也通過更新增加了新的時區:

South Sudan 的時區被加入壓縮主題

我們沒有在這裏停下來。Wix Events(供 Wix Users 管理事件傳票和 RSVP)也可以使用 Bookings 的時區主題,並在一個國家因爲夏令時更改時區時自動更新其內存 kv-store。

兩個內存 KV 存儲消費同一個壓縮主題

4 調度並遺忘

當存在需要確保計劃事件最終被處理的需求時

在許多情況下,需要 Wix 微服務根據某個計劃執行作業。

Wix Payments Subscriptions 服務就是一個例子,它管理基於訂閱的支付(例如瑜伽課程的訂閱)。

對於每個月度或年度訂閱用戶,必須通過支付提供程序完成續訂過程。

爲此,Wix 自定義的 Job Scheduler 服務調用由 Payments Subscription 服務預先配置好的 REST 端點。

訂閱續期過程在後臺進行,不需要(人類)用戶參與。這就是爲什麼最終可以成功續訂很重要,即使臨時有錯誤——例如第三支付提供程序不可用。

要確保這一過程是完全彈性的,一種方法是由作業調度器重複請求 Payment Subscriptions 服務(續訂的當前狀態保存在數據庫中),對每個到期但尚未續期的訂閱進行輪詢。這將需要數據庫上的悲觀 / 樂觀鎖定,因爲同一用戶同一時間可能有多個訂閱續期請求(來自兩個單獨的正在進行的請求)。

更好的方法是首先生成 Kafka 請求。爲什麼?因爲請求的處理將由 Kafka 的消費者順序完成(對於每個特定的用戶),所以不需要並行工作的同步機制。

此外,一旦消息生成併發送到 Kafka,我們就可以通過引入消費者重試來確保它最終會被成功處理。由於有這些重試,請求調度的頻率可能就會低很多。

在這種情況下,我們希望可以保持處理順序,這樣重試邏輯可以在兩次嘗試之間(以 “指數退避” 間隔進行)簡單地休眠。

Wix 開發人員使用我們自定義的 Greyhound 消費者,因此,他們只需指定一個 BlockingPolicy,並根據需要指定適當的重試間隔。

在某些情況下,消費者和生產者之間可能會產生延遲,如長時間持續出錯。在這些情況下,有一個特殊的儀表板用於解除阻塞,並跳過開發人員可以使用的消息。

如果消息處理順序不是強制性的,那麼 Greyhound 中還有一個使用 “重試主題” 的非阻塞重試策略。

當配置重試策略時,Greyhound 消費者將創建與用戶定義的重試間隔一樣多的重試主題。內置的重試生成器將在出錯時生成一條下一個重試主題的消息,該消息帶有一個自定義頭,指定在下一次調用處理程序代碼之前應該延遲多少時間。

還有一個死信隊列,用於重試次數耗盡的情況。在這種情況下,消息被放在死信隊列中,由開發人員手動審查。

這種重試機制是受 Uber 這篇文章的啓發。

https://eng.uber.com/reliable-reprocessing/

Wix 最近開放了 Greyhound 的源代碼,不久將提供給測試用戶。要了解更多信息,可以閱讀 GitHub 上的自述文件。

https://github.com/wix/greyhound#greyhound

總結:

5 事務中的事件

當冪等性很難實現時

考慮下面這個典型的電子商務流程。

Payments 服務生成一個 Order Purchase Completed 事件到 Kafka。現在,Checkout 服務將消費此消息,並生成自己的 Order Checkout Completed 消息,其中包含購物車中的所有商品。

然後,所有下游服務(Delivery、Inventory 和 Invoices)將消費該消息並繼續處理(分別準備發貨、更新庫存和創建發票)。

如果下游服務可以假設 Order Checkout Completed 事件只由 Checkout 服務生成一次,則此事件驅動流的實現會簡單很多。

爲什麼?因爲多次處理相同的 Checkout Completed 事件可能導致多次發貨或庫存錯誤。爲了防止下游服務出現這種情況,它們將需要存儲去重後的狀態,例如,輪詢一些存儲以確保它們以前沒有處理過這個 Order Id。

通常,這是通過常見的數據庫一致性策略實現的,如悲觀鎖定和樂觀鎖定。

幸運的是,Kafka 爲這種流水線事件流提供了一個解決方案,每個事件只處理一次,即使當一個服務有一個消費者 - 生產者對(例如 Checkout),它消費一條消息,併產生一條新消息。

簡而言之,當 Checkout 服務處理傳入的 Payment Completed 事件時,它需要將 Checkout Completed 事件的發送過程封裝在一個生產者事務中,它還需要發送消息偏移量(使 Kafka 代理能夠跟蹤重複的消息)。

事務期間生成的任何消息將僅在事務完成後纔對下游消費者(Inventory Service)可見。

此外,位於 Kafka 流開始位置的 Payment Service Producer 必須轉變爲冪等(Idempotent)生產者——這意味着代理將丟棄它生成的任何重複消息。

要了解更多信息,請觀看我的視頻 “Kafka 中的恰好一次語義”。

https://www.youtube.com/watch?v=7O_UC_i1XY0

6 事件聚合

當你想知道整個批次的事件已經被消費時

在上半部分,我描述了在 Wix 將聯繫人導入到 Wix CRM 平臺的業務流程。後端包括兩個服務。一個是作業服務,我們提供一個 CSV 文件,它會生成作業事件到 Kafka。還有一個聯繫人導入服務,它會消費並執行導入作業。

假設 CSV 文件有時非常大,將工作負載分割成更小的作業,每個作業中需要導入的聯繫人就會更少,這個過程就會更高效。通過這種方式,這項工作可以在 Contacts Importer 服務的多個實例中並行。但是,當導入工作被拆分爲許多較小的作業時,該如何知道何時通知最終用戶所有的聯繫人都已導入?

顯然,已完成作業的當前狀態需要持久化,否則,內存中哪些作業已完成的記錄可能會因爲隨機的 Kubernetes pod 重啓而丟失。

一種在 Kafka 中進行持久化的方法是使用 Kafka 壓縮主題。這類主題可以看成是一種流式 KV 存儲。

在我們的示例中,Contacts Importer 服務(在多個實例中)通過索引消費作業。每當它處理完一些作業,就需要用一個 Job Completed 事件更新 KV 存儲。這些更新可以同時發生,因此,可能會出現競態條件並導致作業完成計數器失效。

 原子 KV 存儲

爲了避免競態條件,Contacts Importer 服務將完成事件寫到原子 KV 存儲類型的 Jobs-Completed-Store 中。

原子存儲確保所有作業完成事件將按順序處理。它通過創建一個 “Commands” 主題和一個 “Store” 壓縮主題來實現。

 順序處理

從下圖可以看出,原子存儲如何生成每一條新的 Import-job-completed“更新”消息,並以 [Import Request Id]+[total job count] 作爲鍵。藉助鍵,我們就可以總是依賴 Kafka 將特定 requestId 的 “更新” 放在特定的分區中。

接下來,作爲原子存儲的一部分,消費者 - 生產者對將首先偵聽每個新的更新,然後執行 atomicStore 用戶請求的 “命令”——在本例中,將已完成作業數量的值加 1。

 端到端更新流示例

讓我們回到 Contacts Importer 服務流。一旦這個服務實例完成了某些作業的處理,它將更新 Job-Completed KVAtomicStore(例如,請求 Id 爲 YYY 的導入作業 3 已經完成):

Atomic Store 將生成一條新消息到 job-completed-commands 主題,鍵爲 YYY-6,值爲 Job 3 Completed。

接下來,Atomic Store 的消費者 - 生產者對將消費此消息,並增加 KV Store 主題中鍵 YYY-6 的已完成作業計數。

 恰好一次處理

注意,“命令” 請求處理必須只發生一次,否則完成計數器可能不正確(錯誤增量)。爲消費者 - 生產者對創建一個 Kafka 事務(如上文的模式 4 所述)對於確保統計準確至關重要。

 AtomicKVStore 值更新回調

最後,一旦 KV 最新生成的已完成作業計數的值與總數匹配(例如 YYY 導入請求有 6 個已完成作業),就可以通知用戶(通過 WebSocket,參見本系列文章第一部分的模式 3)導入完成。通知可以作爲 KV-store 主題生成動作的副作用,即調用用戶提供給 KV 原子存儲的回調。

 注意事項:

7 總結

這裏的一些模式比其他的模式更爲常見,但它們都有相同的原則。通過使用事件驅動的模式,可以減少樣板代碼(以及輪詢和鎖定原語),增加彈性(減少級聯失敗,處理更多的錯誤和邊緣情況)。此外,微服務之間的耦合要小得多(生產者不需要知道誰消費了它的數據),擴展也更容易,向主題添加更多分區(和更多服務實例)即可。

原文鏈接:

https://medium.com/wix-engineering/6-event-driven-architecture-patterns-part-1-93758b253f47

https://medium.com/wix-engineering/6-event-driven-architecture-patterns-part-2-455cc73b22e1

本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://mp.weixin.qq.com/s/AiaSRKDu5Nn4zrneB_wpLA