萬字長文詳解攜程酒店訂單緩存 - 存儲系統升級實踐

作者簡介

榮華,攜程高級研發經理,專注於後端技術項目研發管理。

軍威,攜程軟件技術專家,負責分佈式緩存系統開發 & 存儲架構遷移項目。

金永,攜程資深軟件工程師,專注於實時計算,數據分析工程。

俊強,攜程高級後端開發工程師,擁有豐富 SQLServer 使用經驗。

前言

攜程酒店訂單系統的存儲設計從 1999 年收錄第一單以來,已經完成了從單一 SQLServer 數據庫到多 IDC 容災、完成分庫分表等多個階段,在見證了大量業務奇蹟的同時,也開始逐漸暴露出老驥伏櫪的心有餘而力不足之態。基於更高穩定性與高效成本控制而設計的訂單存儲系統,已經是攜程在疫情後恢復業務的必然訴求。

目前攜程酒店訂單系統正面臨着在業務高增長的同時信息讀寫管理能力受制於數據庫自身性能與穩定性的窘境。綜合分析,一則爲攜程服役了十多年的 SQLServer 服務器集羣的磁盤容量設計,已經跟不上時下新增訂單量的空間訴求;二則在系統能力提升上造成了各大業務系統巨大的底層瓶頸與風險,同時又相比業界主流已基於 MySQL 架構設計存儲系統而言,我們的訂單存儲系統仍基於 SQLServer 構建也整體推高了運營成本。

爲了支撐未來每日千萬級訂單的業務增長目標,同時滿足高可用、高性能、高可擴展的高效成本控制期望,我們爲酒店部門的訂單 DB 所有訪問開發並落地了一套穩定且可靠的統一中間件封裝方案,對現狀收斂並提供了全局統一的熱點緩存系統,徹底解決了當下訂單上層應用與數據庫間直連的方案缺陷。

新系統由中間件服務統一實現了對上層應用提供數據鏈服務,並達成了爲現有依賴訂單庫的應用以及其他直接或間接的數據應用無感的實現存儲底層由 SQLServer 向 MySQL 技術架構遷移的目標。

一、架構綜述

通過對現有系統瓶頸的分析,我們發現核心缺陷集中在訂單數據緩存分散導致數據各端不一致,各訂單應用則與數據庫直連又造成可擴展性差。通過實踐我們編寫中間件抽象並統一了數據訪問層,以及基於數據庫部署架構鏡像構建了訂單緩存統一管理熱點數據,解決了各端差異。

圖 1.1  存儲系統架構圖

二、應用場景

2.1  新單秒級各端同步

從訂單的提交到各端可見的速度爲存儲服務的核心指標之一,我們對數據鏈的主要環節進行了優化,覆蓋了新單同步、消息實時推送、查詢索引構建以及數據平臺離線歸檔等主要環節,使大系統內數據到達速度在 3 秒以內,即用戶剛下完單即可跳轉我攜列表可見。

圖 2.1 數據鏈

2.2  自動發單與工作臺

對客、商、員工工作臺三端的支持是訂單存儲系統的基本角色,圖 2.1 數據鏈在新單提交後爲自動發單與工作臺起到的銜接作用功不可沒。自動發單即在客人提交訂單後,以最快的響應速度向商戶發送訂單明細信息進行覈實貨位、確認訂單等流程。工作臺則協助員工介入流程及時獲取訂單處理人工事件。

圖 2.2 基於存儲系統的發單與工作臺關係(縮略細節)

2.3  查詢與數據分析

基於訂單數據爲核心的主要分爲在線查詢和數據分析兩條業務線,以對詳情查詢爲例,訪問 QPS 終年保持在高位,每逢假期高峯則容易造成查詢瓶頸,根因覆盤後在本次架構升級中我們做了調整來優化相關場景的高可用性。

如此以上,我們將訂單主庫的訪問保護在訂單緩存、實時消息、Hive 數倉三架馬車之後,與業務盡最大可能的解耦。

三、系統升級實踐 

在對攜程核心存儲系統進行更新換代的過程中,貫穿全程需要做到的是熱遷移,並達成所有操作對數據鏈路上的各應用透明無損的目標。我們的設計通盤分析了集團數據鏈路的特性,由訂單緩存系統提供數據庫鏡像降低應用與數據庫的直連耦合,繼而再通過中間件對應用透明掉數據源於 SQLServer / MySQL 的物理關係,提供底層熱遷移的操作空間。

結合無損遷移的工藝設計,注重對每一筆數據庫流量的可見及可控,支持全庫、Shard 級、表級、CRUD 操作級的流量分配策略,提供了底層數據遷移足夠的實施手段。數倉銜接設計則側重於解決數據平臺百億級離線數據與雙庫在線期間的同步問題,以及解決全量接入 MySQL 期間產生的數據問題。

以下將分三個部分分享我們在這一過程中學到的經驗。

3.1  分佈式訂單緩存

隨着業務發展,用戶數和訪問量越來越大,訂單系統應用和服務器的壓力也與日俱增。在沒有引入訂單緩存之前,每個應用獨立連接數據庫,造成查詢出來的數據無法在應用間共享,並且 DB 每秒查詢量和連接數都有上限,而酒店核心交易鏈路基於 DB 存儲,存在單點故障風險。

經過埋點數據分析,訂單系統是典型的讀多寫少,爲了共享熱點查詢數據以及降低 DB 負載,一個有效的辦法就是引入緩存,如圖 3.1,用戶的請求過來時,優先查詢緩存,如果存在緩存數據,則直接返回結果;緩存沒有命中,則去查詢 DB,根據配置策略校驗 DB 結果數據,校驗通過則將 DB 數據寫入緩存留作後續查詢使用,否則不寫入緩存,最後返回 DB 查詢結果。

圖 3.1 訂單緩存基本設計

關於引入新的緩存組件後的硬件開銷,可通過收斂原來各應用分散的硬件資源來降低總成本,但還會因爲中心化管理帶來可用性挑戰以及數據一致性等問題,故需要充分對現有系統進行容量評估、流量估算和緩存表價值分析。只緩存訪問量高的熱點數據表,通過恰當的緩存結構設計、數據壓縮和緩存淘汰策略,最大程度提高緩存命中率,在緩存容量、硬件成本和可用性之間做好權衡。

傳統的緩存設計,是一條數據庫表記錄對應一條緩存數據。而在訂單系統中,一個訂單查詢多表的場景很常見,如果採用傳統設計,在一次用戶查詢中,Redis 的訪問次數是隨着表數量增加的,這種設計網絡 IO 較大並且耗時較長。在盤點表維度流量數據時,我們發現有些表經常一起查詢,不到 30% 的表其查詢流量超過 90%,在業務上完全可以劃分爲同一個抽象領域模型,然後基於 hash 結構進行存儲,如圖 3.2,以訂單號作爲 key,領域名稱作爲 field,領域數據作爲 value。

這樣無論是單表還是多表查詢,每個訂單都只需要訪問一次 Redis,即減少了 key,又減少了多表查詢次數,提升了性能。同時 value 基於 protostuff 進行壓縮,還減少了 Redis 的存儲空間,以及隨之而來的網絡流量開銷。

圖 3.2 基於 domain 的存儲結構簡述

3.2  無損遷移工藝

如何做到無損熱遷移是整個項目最具挑戰性的地方。在工藝設計之前我們的前置工作首先完成了中間件的開發,通過中間件將數據庫與業務層應用一分爲二。其次抽象 Dao 層實現領域化,並由數據領域層嚮應用提供數據服務,領域之下適配 SQLServer 和 MySQL 兩種數據庫並統一封裝。以此爲基礎才能委以下述工藝設計實施無損熱遷移。

圖 3.2  操作工藝簡介

3.3  數倉銜接

爲了方便理解生產數據到數據倉庫 ODS 層數據的遷移,做到對下游透明,這裏簡單介紹一下常規數據倉庫的分層體系。通常數據倉庫主要分爲五層:ODS(原始數據層)、DIM(維度)、EDW(企業數倉)、CDM(通用模型層)、ADM(應用模型層),如下圖所示:

圖 3.3.1  數據倉庫分層結構

從圖 3.3.1 上可以看出,數據倉庫各層都依賴 ODS 層的數據,爲了不影響數據平臺所有應用,我們只需要將原來訂單庫 ODS 層數據源從 SQLServer 遷移到 MySQL 庫即可。

從圖上很直觀的看出,遷移只需換個數據源不是很麻煩,但是爲了保證數據質量,我們做了很多的前置工作,比如:DBA 預先將生產數據同步到生產 MySQL 庫、MySQL 數據實時同步、生產兩側數據一致性校驗、MySQL 側數據同步到 ODS 層、ODS 層數據一致性校驗及原有 ODS 層同步 Job 數據源切換等。

其中,生產兩側數據一致性校驗和數據倉庫 ODS 層數據一致性校驗最爲複雜,耗時也最長,要確保每張表、每個字段都要一致時才能切換數據源。但是,從實際操作過程中,卻做不到完全一致。根據實際情況,適當處理時間類型、浮點值精度及小數位等。

下面介紹一下整體流程:

首先,對於線上數據一致校驗,我們開發了在線同步 Job,將 SQLServer 的數據和 MySQL 數據進行比較,發現不一致時,就將 MySQL 的數據以 SQLServer 數據爲基準更新掉,確保兩邊數據的一致性。

其次,對於離線數據一致性校驗,我們和數據倉庫同事合作把 MySQL 側數據同步到 ODS 層 (以庫名區分是 SQLServer 還是 MySQL 的表),並且將定時跑的任務和 SQLServer 側任務在時間上儘量一致。兩側數據都準備好後,我們開發了離線數據校驗腳本生成器,根據數據倉庫元數據,爲每張表生成一個同步 Job,將其部署到調度平臺。

同步任務會依賴兩側 ODS 層同步數據,T+1 數據同步完成後,執行一致性校驗,將不一致的訂單號記錄到不一致明細表中,並統計不一致的數據量,將結果保存到統計表中。然後在自助報表平臺製作一個報表,將每天統計的不一致的表及不一致量發送到郵箱,我們每天對不一致的表進行排查找出問題,調整比較策略,更新比較 Job。大致流程如下:

圖 3.3.2  一致性校驗整體流程

最後,隨着線上和離線數據逐步趨於一致後,我們將原先 SQLServer 同步到 ODS 層 Job 的數據源切換到 MySQL。這裏可能有同學會有疑問:爲什麼不直接使用 MySQL 側 ODS 層的表呢?原因是,經過統計,依賴原先 ODS 層表的 Job 有上千個之多,如果讓依賴 Job 切換到 MySQL 側 ODS 表,修改工作量非常大,所以我們直接將原來的 ODS 層同步數據源直接切換成 MySQL。

實際操作中,切數據源並不能一次全部切完,我們分三批進行,先找十幾個不那麼重要的表作爲第一批,切完後運行兩週,並收集下游數據問題的反饋。第一批表順利切完兩週後,我們沒收到下游報數據問題,說明數據質量沒問題。然後再將剩餘的幾百張表按重要程度分兩批繼續切,直到切完。

至此,我們完成了訂單庫從 SQLServer 遷移到 MySQL 在數據倉庫層的遷移工作。

四、核心問題精編

實際上再周密的分析與設計,總是難免遇到執行過程中的各種挑戰。我們總結了一些經典問題,雖然通過技術手段最終解決了這些大大小小問題並達成了目標,但是相信各位看官必定還有更好的解決方案,我們樂見共同學習與進步。

4.1  SQLServer & MySQL 流量遷移如何細粒度監控

訂單系統涉及到的應用和表數量衆多,一個應用對應 1 到 n 張表,一張表又對應 1 到 n 個應用,是典型的多對多關係。如圖 4.1,對於上層應用來說,從一個 SQLServer 數據庫,切換到另一個 MySQL 數據庫,其基本流程參照操作工藝章節至少分爲以下幾步:

圖 4.1 應用和數據庫以及表的關係圖

在生產環境更換數據庫系統,就像在高速公路上不停車換輪胎,需要維持原有的車速不變,且對用戶無感,否則後果不敢設想。

在切換工藝中雙寫、單讀和單寫流程,環環相扣,步步相依,作爲配套設計監控手段必須確認上一個操作達到預期效果才能進行下一個。如果跳過或者沒有切換乾淨就貿然進行下一步,比如還沒有雙寫完全一致,就開始讀 MySQL 數據,可能造成查無此數據或者查到髒數據!那麼就需要對每一個 CRUD 操作的讀寫進行監控,在遷移過程中做到 360 度無死角可視化流量細分控制,所見即所得。具體的做法如下:

綜上所述,基本方案爲通過中間件爲管道爲所有接入的應用統一埋點,通過實時展示應用層的行爲觀察流量分佈,並結合公司數據庫側 Trace 的可視化工具覈實應用的流量切換行爲與數據庫實際 QPS 及負載浮動保持一致來監督遷移任務。

4.2  如何解決雙寫期間 DB 一致性問題  

酒店的訂單庫有着二十年左右歷史,經年累積,跨部門和酒店內部多個團隊直接或間接依賴訂單庫 SQLServer,要想切換到 MySQL,就得先解決雙寫 DB 一致性問題,不一致主要體現在以下兩點:

關於雙寫數據一致性的保證,我們基於同步 Job 將 SQLServer 數據爲準線,根據最後更新時間,拉取兩側 DB 數據進行比對,如果不一致則修復 MySQL 的數據並將不一致信息寫入 ES,供後續排查根因。

但也因爲引入了額外的 Job 操作 MySQL 數據,帶來了新的問題,那就是多表雙寫時,因爲耗時翻倍,Job 發現 SQLServer 有數據而 MySQL 沒有,就立即修復了 MySQL 數據,造成雙寫失敗。所以雙寫部分失敗又加上了 Failover 機制,通過拋送消息,觸發新一輪的比對和修復工作,直到兩側 DB 數據完全一致。

同步 Job 和 Failover 消息機制雖然可以讓數據最終一致,但畢竟有秒級的間隔,兩側數據是不一致的,並且對於衆多應用的各種場景,難免會有遺漏時單寫 SQLServer。對於這些漏寫 MySQL 的地方,通過 DBTrace 是無法找到的,因爲無法確定一個 CUD 操作只寫入 SQLServer,而未寫入 MySQL。那麼有沒有辦法事前就能找出漏寫 MySQL 的場景呢,確實被我們找出來一點,那就是更換數據庫連接串,接入中間件的應用使用新連接串,然後找出所有使用舊連接串操作 SQLServer 的 SQL,就能準確定位出漏寫 MySQL 的流量了。

最終,我們將雙寫 DB 不一致率從十萬分之二逐步降低到了幾乎爲 0,爲什麼是幾乎呢,因爲 DB 的一些特性差異問題,會天然的導致數據無法完全一致,這個在後續內容會有詳細的論述。

4.3  引入訂單緩存後導致的數據不同步問題處理

引入緩存之後,就涉及到對緩存進行寫入或者更新,業界常見的做法分爲以下幾種:

在具體實施上還會進行雙刪緩存或者延遲雙刪緩存,此處不再比較各種做法的優劣。我們採用的是先寫 DB 再刪緩存方案,對於數據敏感表,會進行延遲雙刪,後臺的同步 Job 定時比對、修復和記錄數據庫數據與 Redis 數據的差異,雖然設計上已經能保證最終一致性,但是在前期還是出現過大量的數據不一致。主要體現在以下幾個方面:

而爲了解決緩存一致性問題,如圖 4.3,我們在原有的緩存和 DB 基礎上,增加了樂觀鎖和 CUD 施工標記,來限制併發情況下同時存在加載數據到緩存相互覆蓋的行爲,以及對當前被查數據正在進行 CUD 操作的感知。在此兩種場景未結束期間可以做到 Query 流量直連 DB,通過基於樂觀鎖的最後寫入者獲勝機制解決競爭問題。最終我們的緩存不一致率從百萬分之二控制到了千萬分之三。

圖 4.3 緩存一致性解決

注:圖 4.3 當查詢未命中緩存,或當前存在該數據的樂觀鎖或施工標記時,當次查詢直連 DB,直至相關事務完成後放開緩存數據自動加載功能。

4.4  存量訂單數據如何一次性校準

項目啓動初期我們對 MySQL 進行了最近 N 年數據的一次性鋪底,這就產生了在雙寫階段無法校準的如下兩個場景的數據:

針對第一點,我們開發了 MySQL 數據專項清理 Job,由於訂單數據庫是多 Shard 的,Job 內部根據實際 Shard 數設置核心線程總量,每個線程分別負責對應 Shard 中的指定表進行清理,並行開多臺服務器分發任務進行清理,通過速度控制既保證了效率又不影響生產上數據庫的負載。

針對第二點,在所有應用接中間件和所有表實現雙寫後,通過調整線上同步 Job 掃描的開始時間戳,對存量訂單數據進行修復。修復時特別注意的是,掃描數據要按時間段分片處理,防止加載數據太多導致訂單庫服務器 CPU 太高。

4.5  一些數據庫特性差異問題

在如此龐大的系統下進行數據庫熱遷移,我們就必須瞭解不同數據庫之間的差異與不同,做到知己知彼,對症下藥。MySQL 與 SQLServer 雖同爲時下流行的關係型數據庫,均支持標準化 SQL 查詢,但在細枝末節上還是有些許差異。下面我們通過遷移中所面臨的問題來具體分析一下。

自增鍵問題,爲保證數據自增序號一致,不能讓兩個數據庫各自去進行自增,否則一旦不一致就要面臨修數據甚至更大風險。因此,在數據雙寫時,我們將 SQLServer 寫入後生成的自增 id,回寫入 MySQL 自增列,在數據單寫 MySQL 時直接使用 MySQL 生成自增 id 值。

日期精度問題,雙寫後爲了保證數據一致性,要對兩側數據進行一致性校驗,類型爲 Date、DateTime、Timestamp 的字段,由於保存精度不一致,在對比時就需要做特殊處理,截取到秒進行比較。

XML 字段問題,SQLServer 中支持 XML 數據類型,而 MySQL 5.7 不支持 XML 類型。在使用 varchar(4000) 代替後,遇到 MySQL 數據寫入失敗,但同步 Job 將 SQLServer 數據回寫 MySQL 時又能正常寫入的案例。經過分析,程序在寫入時會將未壓縮的 XML 字符串寫入,SQLServer XML 類型會自動壓縮並存儲,但 MySQL 並不會,導致長度超過 4000 的寫入操作失敗,SQLServer 壓縮後長度小於 4000,又能夠正常回寫 MySQL。爲此我們提出應對措施,寫入前壓縮並校驗長度,非重要字段截取後再存儲,重要字段優化存儲結構或更換字段類型。

下面列舉一些遷移過程中常見的注意點。

WnoGeY

五、預警實踐

我們的預警實踐並不侷限於項目推進期間的監控訴求,如何在百億級數據中週期掃描數據寫入的異常,完成項目期間雙寫數據一致率的複覈,如何實時監控與預警訂單庫每個分片上訂單寫入量的正常趨勢,如何定期驗收 / 覈驗整套系統的高可用性將在以下篇幅中描述。

5.1  百億級數據差異校驗預警

要滿足訂單數據 SQLServer 遷移到 MySQL 庫,數據質量是遷移的必要條件,數據一致性達不到要求就無法透明遷移,所以設計合理的校驗方案,關乎遷移的進度。針對數據校驗,我們分爲線上和線下兩種:

線上數據校驗和預警:遷移期間我們通過同步 Job,在計算出不一致數據後,將不一致的表及字段寫入 ElasticSearch,再用 Kibana 製作出不一致數據量及不一致表所佔比例的監控看板,通過監控看板,我們就可以實時監控哪些表數據不一致量比較高,再根據表名稱通過 DBA 工具排查出哪些應用對錶進行了 CUD 操作,進一步定位漏接中間件的應用和代碼。

在實際操作中,我們確實找出了大量未接中間的應用並對其改造,隨着接入中間件的應用越來越多,數據一致性逐漸提高,從監控看板上看到不一致的量也慢慢降低。但是一致性始終沒有降低到零,原因是應用和同步 Job 併發導致的,這個也是最令人頭疼的問題。

或許有同學會疑問,既然雙寫了爲什麼不停止掉同步 Job 呢?原因是雙寫以 SQLServer 爲主寫,以受中間件覆蓋的 CUD 範圍爲基準,除了不能保證寫入 MySQL 的數據百分百成功外也不能保證兩庫的數據量相等,所以需要一致性 Job 兜底。由於併發的存在,雖然做不到數據百分百一致,但是可以進一步降低。

我們的做法是,一致性 Job 比較時設置一個 5 秒的穩定線(即距離當前時間 5 秒內的數據視爲不穩定數據),訂單數據時間戳在穩定線內的不進行比較,穩定線外的比較時,會再一次計算訂單數據是否在穩定線內,如果確認全部數據在穩定線外,就進行比較操作,否則放棄本次比較,由下一次調度執行一致性校驗。

離線數據校驗和預警:訂單庫遷移涉及到幾百張表,離線數據比較多,一年的訂單相關數據就有上百億了,對於離線數據校驗比較有挑戰。我們編寫了數據一致性腳本生成器,爲每張表生成一個比較腳本並部署到調度平臺,比較腳本依賴上游 SQLServer 和 MySQL 兩側的同步 Job,上游 Job 執行完畢後自動執行數據比較,將不一致數據的訂單號寫到明細表中,並根據明細表統計出不一致量,以日報的形式發出,每天對數據不一致比較高的表排查並解決。

通常一是能修復對比腳本的瑕疵,二是發現離線數據問題,就這樣反覆摸排解決不一致問題。對於離線數據每張表每個字段的校驗是非常複雜的,我們編寫 UDF 函數進行比較,UDF 函數功能也很簡單,就是將每張表的非主鍵字段進行拼接生成一個新字段,兩側表進行全外連接,主鍵或者邏輯主鍵相等的記錄,生成新字段也應該一樣,只要不一樣就視爲不一致數據。這裏要注意日期字段截取、數據精度及末尾爲零的小數處理問題。

經過三個多月的努力,我們排查出所有未接中間件的應用,並將其 CUD 操作全部接入中間件,開啓雙寫後線上線下數據一致性逐步提高,達到了遷移數據的目標。

5.2 ALL Shard 實時訂單總量監控

每個公司對於訂單量的監控是不可或缺的,攜程有一個統一預警平臺 Sitemon,它主要監控各類訂單告警,包括酒店,機票,無線,高鐵,度假。並能按照 online/offline,國內 / 國際,或者支付方式單獨搜索和展現,並對各類訂單做了告警。

訂單數據從 SQLServer 遷移到 MySQL 期間,我們梳理出來依賴訂單庫的預警策略近兩百個,負責監控的相關同事對 SQL Server 數據源的預警策略原樣複製一份連接 MySQL 數據源。以 MySQL 爲數據源監控告警都添加完成後,開啓報警策略,一旦訂單量異常報警,NOC 會收到兩條通知,一條來源於 SQLServer 數據告警,一條來源於 MySQL 告警,如果兩邊一致,說明灰度驗證通過。否則,不通過,需排查 MySQL 監控問題。

經過一段時間的灰度驗證,兩邊報警數據一致,隨着 SQLServer 數據表下線(即單寫 MySQL 數據),以 SQLServer 爲數據源的預警策略也跟着及時下線。

5.3  “流浪地球” 實操

爲了做好系統安全保障工作,提高應對突發事件的能力,必要的演練壓測等是少不了的。爲此,我們制定了完備的應急預案並定期組織開展應急演練——流浪地球。演練項目包括核心 / 非核心應用熔斷、DB 熔斷、Redis 熔斷、核心防火牆、交換機應急切換等。

以緩存爲例,爲了保證緩存服務的高可用,我們在演練時會下線部分節點或機器甚至切斷整個 Redis 服務,模擬緩存雪崩、緩存擊穿等場景。按照計劃,在熔斷前我們會先切斷應用的 Redis 訪問,一步步降低 Redis 負載,然後熔斷 Redis,以此檢驗在無 Redis 的情況下各應用系統是否能夠正常運轉。

但在首次演練中,熔斷 Redis 後應用報錯量就急劇上升,果斷停止演練回退並查找原因。經過分析,部分應用 Redis 操作未統一收口,不受中間件統一控制,Redis 熔斷後應用隨即出現異常。針對這一情況,我們分析後一方面將報錯應用的訂單緩存訪問收口接入中間件,另一方面強化了中間件與 Redis 的弱依賴關係,支持一鍵斷開 Redis 操作,並完善了各項指標監控。最終在第二次演練中順利完成 Redis 熔斷,各業務系統在全流量打入 MySQL 的狀態下的正常運行。在最近一次的流浪地球演練中,機房網絡阻斷、非核心應用阻斷等一輪輪故障注入後,我們的系統更是取得了很好的預期效果。

就這樣,在一次次的演練中,我們發現問題,總結經驗,優化系統,完善應急預案,一步步提升系統應對突發故障的能力,保證業務的連續性以及數據的完整性。做好底層數據支撐,爲整個酒店訂單系統保駕護航。

六、未來規劃

6.1  訂單緩存手工調控臺

雖然我們有完善的監控看板與預警系統,但對於像熔斷演練、自動化故障演練、硬件故障和維護以及不可提前預知的問題,若剛好核心開發人員未能及時在現場響應操作,系統尚不能完全自主降級可能導致部分性能有所下降,比如響應耗時增加等。在將來計劃增加手工調控看板,授權後可以讓 NOC 或者 TS 進行鍼對性操作,比如 Redis 全部或者部分集羣宕機,可以一鍵切割故障 Redis 分片,或者根據 Redis 已計劃中的不可用時間段來提前設置切割時間,可以最大程度保證系統的可控性。

6.2  中間件自動降級

既然可以手工進行調控,那麼我們也考慮後續可以通過一些核心指標的監控,比如 Redis 主從切換期間,正常情況是秒級,但是我們也出現過部分 Redis 10 秒以上不可寫的情況,此時可以監控緩存與數據庫不一致的髒數據量,也可以在 Redis 發生故障時通過監控響應耗時異常的閥值來應用一些策略,讓中間件自動降級切割掉這些故障主機保證服務的基本穩定,然後在探測到集羣指標穩定後再逐步嘗試恢復。

6.3  中間件接入 Service Mesh

當前訂單團隊內部是以 JAR 的方式使用中間件,由中間件來屏蔽數據庫底層差異和操作 Redis 以實現更復雜的功能,天然具備接入 Service Mesh 能力,接入後底層升級更加快速和無感、調用更加輕量化、更好與框架進行網格化集成以及上雲更加方便,能夠更好的支撐攜程的國際化戰略目標。

本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://mp.weixin.qq.com/s/8bDdhsafPn3VMGmdaq3GQQ