分庫分表 vs NewSQL 數據庫

最近與同行科技交流,經常被問到分庫分表與分佈式數據庫如何選擇,網上也有很多關於中間件 + 傳統關係數據庫(分庫分表)與 NewSQL 分佈式數據庫的文章,但有些觀點與判斷是我覺得是偏激的,脫離環境去評價方案好壞其實有失公允。

本文通過對兩種模式關鍵特性實現原理對比,希望可以儘可能客觀、中立的闡明各自真實的優缺點以及適用場景。

NewSQL 數據庫先進在哪兒?

首先關於 “中間件 + 關係數據庫分庫分表” 算不算 NewSQL 分佈式數據庫問題,國外有篇論文 pavlo-newsql-sigmodrec,如果根據該文中的分類,Spanner、TiDB、OB 算是第一種新架構型,Sharding-Sphere、Mycat、DRDS 等中間件方案算是第二種(文中還有第三種雲數據庫,本文暫不詳細介紹)。基於中間件(包括 SDK 和 Proxy 兩種形式)+ 傳統關係數據庫(分庫分表)模式是不是分佈式架構?我覺得是的,因爲存儲確實也分佈式了,也能實現橫向擴展。但是不是 "僞" 分佈式數據庫?從架構先進性來看,這麼說也有一定道理。"僞" 主要體現在中間件層與底層 DB 重複的 SQL 解析與執行計劃生成、存儲引擎基於 B+Tree 等,這在分佈式數據庫架構中實際上冗餘低效的。爲了避免引起真僞分佈式數據庫的口水戰,本文中 NewSQL 數據庫特指這種新架構 NewSQL 數據庫。

NewSQL 數據庫相比中間件 + 分庫分表的先進在哪兒?畫一個簡單的架構對比圖:

  1. 傳統數據庫面向磁盤設計,基於內存的存儲管理及併發控制,不如 NewSQL 數據庫那般高效利用。

  2. 中間件模式 SQL 解析、執行計劃優化等在中間件與數據庫中重複工作,效率相比較低;

  3. NewSQL 數據庫的分佈式事務相比於 XA 進行了優化,性能更高;

  4. 新架構 NewSQL 數據庫存儲設計即爲基於 paxos(或 Raft)協議的多副本,相比於傳統數據庫主從模式(半同步轉異步後也存在丟數問題),在實現了真正的高可用、高可靠(RTO<30s,RPO=0)

  5. NewSQL 數據庫天生支持數據分片,數據的遷移、擴容都是自動化的,大大減輕了 DBA 的工作,同時對應用透明,無需在 SQL 指定分庫分表鍵。

這些大多也是 NewSQL 數據庫產品主要宣傳的點,不過這些看起來很美好的功能是否真的如此?接下來針對以上幾點分別闡述下的我的理解。

分佈式事務

這是把雙刃劍。

CAP 限制

想想更早些出現的 NoSQL 數據庫爲何不支持分佈式事務(最新版的 mongoDB 等也開始支持了),是缺乏理論與實踐支撐嗎?並不是,原因是 CAP 定理依然是分佈式數據庫頭上的頸箍咒,在保證強一致的同時必然會犧牲可用性 A 或分區容忍性 P。爲什麼大部分 NoSQL 不提供分佈式事務?

那麼 NewSQL 數據庫突破 CAP 定理限制了嗎?並沒有。NewSQL 數據庫的鼻主 Google Spanner(目前絕大部分分佈式數據庫都是按照 Spanner 架構設計的)提供了一致性和大於 5 個 9 的可用性,宣稱是一個 “實際上是 CA” 的,其真正的含義是系統處於 CA 狀態的概率非常高,由於網絡分區導致的服務停用的概率非常小 ,究其真正原因是其打造私有全球網保證了不會出現網絡中斷引發的網絡分區,另外就是其高效的運維隊伍, 這也是 cloud spanner 的賣點。詳細可見 CAP 提出者 Eric Brewer 寫的《Spanner, TrueTime 和 CAP 理論》。

推薦一篇關於分佈式系統有趣的文章,站在巨人的分佈式肩膀上,其中提到:分佈式系統中,您可以知道工作在哪裏,或者您可以知道工作何時完成,但您無法同時瞭解兩者;兩階段協議本質上是反可用性協議。

完備性

兩階段提交協議是否嚴格支持 ACID,各種異常場景是不是都可以覆蓋?2PC 在 commit 階段發送異常,其實跟最大努力一階段提交類似也會有部分可見問題,嚴格講一段時間內並不能保證 A 原子性和 C 一致性(待故障恢復後 recovery 機制可以保證最終的 A 和 C)。完備的分佈式事務支持並不是一件簡單的事情,需要可以應對網絡以及各種硬件包括網卡、磁盤、CPU、內存、電源等各類異常,通過嚴格的測試。之前跟某友商交流,他們甚至說目前已知的 NewSQL 在分佈式事務支持上都是不完整的,他們都有案例跑不過,圈內人士這麼篤定,也說明了分佈式事務的支持完整程度其實是層次不齊的。

但分佈式事務又是這些 NewSQL 數據庫的一個非常重要的底層機制,跨資源的 DML、DDL 等都依賴其實現,如果這塊的性能、完備性打折扣,上層跨分片 SQL 執行的正確性會受到很大影響。

性能

傳統關係數據庫也支持分佈式事務 XA,但爲何很少有高併發場景下用呢?因爲 XA 的基礎兩階段提交協議存在網絡開銷大,阻塞時間長、死鎖等問題,這也導致了其實際上很少大規模用在基於傳統關係數據庫的 OLTP 系統中。NewSQL 數據庫的分佈式事務實現也仍然多基於兩階段提交協議,例如 google percolator 分佈式事務模型, 採用原子鐘 + MVCC+ Snapshot Isolation(SI),這種方式通過 TSO(Timestamp Oracle) 保證了全局一致性,通過 MVCC 避免了鎖,另外通過 primary lock 和 secondary lock 將提交的一部分轉爲異步,相比 XA 確實提高了分佈式事務的性能。

SI 是樂觀鎖,在熱點數據場景,可能會大量的提交失敗。另外 SI 的隔離級別與 RR 並非完全相同,它不會有幻想讀,但會有寫傾斜。

但不管如何優化,相比於 1PC,2PC 多出來的 GID 獲取、網絡開銷、prepare 日誌持久化還是會帶來很大的性能損失,尤其是跨節點的數量比較多時會更加顯著,例如在銀行場景做個批量扣款,一個文件可能上 W 個賬戶,這樣的場景無論怎麼做還是吞吐都不會很高。

Spanner 給出的分佈式事務測試數據

雖然 NewSQL 分佈式數據庫產品都宣傳完備支持分佈式事務,但這並不是說應用可以完全不用關心數據拆分,這些數據庫的最佳實踐中仍然會寫到,應用的大部分場景儘可能避免分佈式事務。

既然強一致事務付出的性能代價太大,我們可以反思下是否真的需要這種強一致的分佈式事務?尤其是在做微服務拆分後,很多系統也不太可能放在一個統一的數據庫中。嘗試將一致性要求弱化,便是柔性事務,放棄 ACID(Atomicity,Consistency, Isolation, Durability),轉投 BASE(Basically Available,Soft state,Eventually consistent),例如 Saga、TCC、可靠消息保證最終一致等模型,對於大規模高併發 OLTP 場景,我個人更建議使用柔性事務而非強一致的分佈式事務。關於柔性事務,筆者之前也寫過一個技術組件,最近幾年也湧現出了一些新的模型與框架(例如阿里剛開源的 Fescar),限於篇幅不再贅述,有空再單獨寫篇文章。

解決分佈式事務是否只能用兩階段提交協議?oceanbase1.0 中通過 updateserver 避免分佈式事務的思路很有啓發性 ,不過 2.0 版後也變成了 2PC。業界分佈式事務也並非只有兩階段提交這一解,也有其它方案 its-time-to-move-on-from-two-phase(如果打不開,國內有翻譯版 www.jdon.com/51588)

HA 與異地多活

主從模式並不是最優的方式,就算是半同步複製,在極端情況下(半同步轉異步)也存在丟數問題,目前業界公認更好的方案是基於 paxos 分佈式一致性協議或者其它類 paxos 如 raft 方式,Google Spanner、TiDB、cockcoachDB、OB 都採用了這種方式,基於 Paxos 協議的多副本存儲,遵循過半寫原則,支持自動選主,解決了數據的高可靠,縮短了 failover 時間,提高了可用性,特別是減少了運維的工作量,這種方案技術上已經很成熟,也是 NewSQL 數據庫底層的標配。當然這種方式其實也可以用在傳統關係數據庫,阿里、微信團隊等也有將 MySQL 存儲改造支持 paxos 多副本的,MySQL 也推出了官方版 MySQL Group Cluster,預計不遠的未來主從模式可能就成爲歷史了。

分佈式一致性算法本身並不難,但具體在工程實踐時,需要考慮很多異常並做很多優化,實現一個生產級可靠成熟的一致性協議並不容易。例如實際使用時必須轉化實現爲 multi-paxos 或 multi-raft,需要通過 batch、異步等方式減少網絡、磁盤 IO 等開銷。

需要注意的是很多 NewSQL 數據庫廠商宣傳基於 paxos 或 raft 協議可以實現【異地多活】,這個實際上是有前提的,那就是異地之間網絡延遲不能太高。以銀行 “兩地三中心” 爲例,異地之間多相隔數千裏,延時達到數十毫秒,如果要多活,那便需異地副本也參與數據庫日誌過半確認,這樣高的延時幾乎沒有 OLTP 系統可以接受的。

數據庫層面做異地多活是個美好的願景,但距離導致的延時目前並沒有好的方案。之前跟螞蟻團隊交流,螞蟻異地多活的方案是在應用層通過 MQ 同步雙寫交易信息,異地 DC 將交易信息保存在分佈式緩存中,一旦發生異地切換,數據庫同步中間件會告之數據延遲時間,應用從緩存中讀取交易信息,將這段時間內涉及到的業務對象例如用戶、賬戶進行黑名單管理,等數據同步追上之後再將這些業務對象從黑名單中剔除。由於雙寫的不是所有數據庫操作日誌而只是交易信息,數據延遲隻影響一段時間內數據,這是目前我覺得比較靠譜的異地度多活方案。

另外有些系統進行了單元化改造,這在 paxos 選主時也要結合考慮進去,這也是目前很多 NewSQL 數據庫欠缺的功能。

Scale 橫向擴展與分片機制

paxos 算法解決了高可用、高可靠問題,並沒有解決 Scale 橫向擴展的問題,所以分片是必須支持的。NewSQL 數據庫都是天生內置分片機制的,而且會根據每個分片的數據負載 (磁盤使用率、寫入速度等) 自動識別熱點,然後進行分片的分裂、數據遷移、合併,這些過程應用是無感知的,這省去了 DBA 的很多運維工作量。以 TiDB 爲例,它將數據切成 region,如果 region 到 64M 時,數據自動進行遷移。

分庫分表模式下需要應用設計之初就要明確各表的拆分鍵、拆分方式(range、取模、一致性哈希或者自定義路由表)、路由規則、拆分庫表數量、擴容方式等。相比 NewSQL 數據庫,這種模式給應用帶來了很大侵入和複雜度,這對大多數系統來說也是一大挑戰。

分庫分表模式也能做到在線擴容,基本思路是通過異步複製先追加數據,然後設置只讀完成路由切換,最後放開寫操作,當然這些需要中間件與數據庫端配合一起才能完成。

這裏有個問題是 NewSQL 數據庫統一的內置分片策略(例如 tidb 基於 range)可能並不是最高效的,因爲與領域模型中的劃分要素並不一致,這導致的後果是很多交易會產生分佈式事務。舉個例子,銀行核心業務系統是以客戶爲維度,也就是說客戶表、該客戶的賬戶表、流水錶在絕大部分場景下是一起寫的,但如果按照各表主鍵 range 進行分片,這個交易並不能在一個分片上完成,這在高頻 OLTP 系統中會帶來性能問題。

分佈式 SQL 支持

常見的單分片 SQL,這兩者都能很好支持。NewSQL 數據庫由於定位與目標是一個通用的數據庫,所以支持的 SQL 會更完整,包括跨分片的 join、聚合等複雜 SQL。中間件模式多面嚮應用需求設計,不過大部分也支持帶拆分鍵 SQL、庫表遍歷、單庫 join、聚合、排序、分頁等。但對跨庫的 join 以及聚合支持就不夠了。

NewSQL 數據庫一般並不支持存儲過程、視圖、外鍵等功能,而中間件模式底層就是傳統關係數據庫,這些功能如果只是涉及單庫是比較容易支持的。NewSQL 數據庫往往選擇兼容 MySQL 或者 PostgreSQL 協議,所以 SQL 支持僅侷限於這兩種,中間件例如驅動模式往往只需做簡單的 SQL 解析、計算路由、SQL 重寫,所以可以支持更多種類的數據庫 SQL。

SQL 支持的差異主要在於分佈式 SQL 執行計劃生成器,由於 NewSQL 數據庫具有底層數據的分佈、統計信息,因此可以做 CBO,生成的執行計劃效率更高,而中間件模式下沒有這些信息,往往只能基於規則 RBO(Rule-Based-Opimization),這也是爲什麼中間件模式一般並不支持跨庫 join,因爲實現了效率也往往並不高,還不如交給應用去做。

這裏也可以看出中間件 + 分庫分表模式的架構風格體現出的是一種妥協、平衡,它是一個面向應用型的設計;而 NewSQL 數據庫則要求更高、“大包大攬”,它是一個通用底層技術軟件,因此後者的複雜度、技術門檻也高很多。

存儲引擎

傳統關係數據庫的存儲引擎設計都是面向磁盤的,大多都基於 B + 樹。B + 樹通過降低樹的高度減少隨機讀、進而減少磁盤尋道次數,提高讀的性能,但大量的隨機寫會導致樹的分裂,從而帶來隨機寫,導致寫性能下降。NewSQL 的底層存儲引擎則多采用 LSM,相比 B + 樹 LSM 將對磁盤的隨機寫變成順序寫,大大提高了寫的性能。不過 LSM 的的讀由於需要合併數據性能比 B + 樹差,一般來說 LSM 更適合應在寫大於讀的場景。當然這只是單純數據結構角度的對比,在數據庫實際實現時還會通過 SSD、緩衝、bloom filter 等方式優化讀寫性能,所以讀性能基本不會下降太多。NewSQL 數據由於多副本、分佈式事務等開銷,相比單機關係數據庫 SQL 的響應時間並不佔優,但由於集羣的彈性擴展,整體 QPS 提升還是很明顯的,這也是 NewSQL 數據庫廠商說分佈式數據庫更看重的是吞吐,而不是單筆 SQL 響應時間的原因。

成熟度與生態

分佈式數據庫是個新型通用底層軟件,準確的衡量與評價需要一個多維度的測試模型,需包括髮展現狀、使用情況、社區生態、監控運維、周邊配套工具、功能滿足度、DBA 人才、SQL 兼容性、性能測試、高可用測試、在線擴容、分佈式事務、隔離級別、在線 DDL 等等,雖然 NewSQL 數據庫發展經過了一定時間檢驗,但多集中在互聯網以及傳統企業非核心交易系統中,目前還處於快速迭代、規模使用不斷優化完善的階段。相比而言,傳統關係數據庫則經過了多年的發展,通過完整的評測,在成熟度、功能、性能、周邊生態、風險把控、相關人才積累等多方面都具有明顯優勢,同時對已建系統的兼容性也更好。對於互聯網公司,數據量的增長壓力以及追求新技術的基因會更傾向於嘗試 NewSQL 數據庫,不用再考慮庫表拆分、應用改造、擴容、事務一致性等問題怎麼看都是非常吸引人的方案。對於傳統企業例如銀行這種風險意識較高的行業來說,NewSQL 數據庫則可能在未來一段時間內仍處於探索、審慎試點的階段。基於中間件 + 分庫分表模式架構簡單,技術門檻更低,雖然沒有 NewSQL 數據庫功能全面,但大部分場景最核心的訴求也就是拆分後 SQL 的正確路由,而此功能中間件模式應對還是綽綽有餘的,可以說在大多數 OLTP 場景是夠用的。

限於篇幅,其它特性例如在線 DDL、數據遷移、運維工具等特性就不在本文展開對比。

總結

如果看完以上內容,您還不知道選哪種模式,那麼結合以下幾個問題,先思考下 NewSQL 數據庫解決的點對於自身是不是真正的痛點:

如果以上有 2 到 3 個是肯定的,那麼你可以考慮用 NewSQL 數據庫了,雖然前期可能需要一定的學習成本,但它是數據庫的發展方向,未來收益也會更高,尤其是互聯網行業,隨着數據量的突飛猛進,分庫分錶帶來的痛苦會與日俱增。當然選擇 NewSQL 數據庫你也要做好承擔一定風險的準備。如果你還未做出抉擇,不妨再想想下面幾個問題:

如果這些問題有多數是肯定的,那還是分庫分表吧。在軟件領域很少有完美的解決方案,NewSQL 數據庫也不是數據分佈式架構的銀彈。相比而言分庫分表是一個代價更低、風險更小的方案,它最大程度複用傳統關係數據庫生態,通過中間件也可以滿足分庫分表後的絕大多數功能,定製化能力更強。在當前 NewSQL 數據庫還未完全成熟的階段,分庫分表可以說是一個上限低但下限高的方案,尤其傳統行業的核心繫統,如果你仍然打算把數據庫當做一個黑盒產品來用,踏踏實實用好分庫分表會被認爲是個穩妥的選擇。

很多時候軟件選型取決於領域特徵以及架構師風格,限於筆者知識與所屬行業特點所限,以上僅爲個人粗淺的一些觀點,歡迎討論。

感謝您的閱讀,也歡迎您發表關於這篇文章的任何建議,關注我,技術不迷茫!

本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://mp.weixin.qq.com/s/NOj1HH9TiSqTJGBlik-3BA