深度介紹分佈式系統原理與設計

來源:Guanzhou Song

1 概念

1.1 模型

節點

在具體的工程項目中,一個節點往往是一個操作系統上的進程。在本文的模型中,認爲節點是一個完整的、不可分的整體,如果某個程序進程實際上由若干相對獨立部分構成,則在模型中可以將一個進程劃分爲多個節點。

異常

  1. 機器宕機:機器宕機是最常見的異常之一。在大型集羣中每日宕機發生的概率爲千分之一左右,在實踐中,一臺宕機的機器恢復的時間通常認爲是 24 小時,一般需要人工介入重啓機器。

  2. 網絡異常:消息丟失,兩片節點之間彼此完全無法通信,即出現了 “網絡分化”;

    消息亂序,有一定的概率不是按照發送時的順序依次到達目的節點,考慮使用序列號等機制處理網絡消息的亂序問題,使得無效的、過期的網絡消息不影響系統的正確性;

    數據錯誤;不可靠的 TCP,TCP 協議爲應用層提供了可靠的、面向連接的傳輸服務,但在分佈式系統的協議設計中不能認爲所有網絡通信都基於 TCP 協議則通信就是可靠的。

    TCP 協議只能保證同一個 TCP 鏈接內的網絡消息不亂序,TCP 鏈接之間的網絡消息順序則無法保證。

  3. 分佈式三態:如果某個節點向另一個節點發起 RPC(Remote procedure call) 調用,即某個節點 A 向另一個節點 B 發送一個消息,節點 B 根據收到的消息內容完成某些操作,並將操作的結果通過另一個消息返回給節點 A,那麼這個 RPC 執行的結果有三種狀態:“成功”、“失敗”、“超時(未知)”,稱之爲分佈式系統的三態。

  4. 存儲數據丟失: 對於有狀態節點來說,數據丟失意味着狀態丟失,通常只能從其他節點讀取、恢復存儲的狀態。

    • 異常處理原則 *:被大量工程實踐所檢驗過的異常處理黃金原則是:任何在設計階段考慮到的異常情況一定會在系統實際運行中發生,但在系統實際運行遇到的異常卻很有可能在設計時未能考慮,所以,除非需求指標允許,在系統設計時不能放過任何異常情況。

1.2 副本

副本(replica/copy)指在分佈式系統中爲數據或服務提供的冗餘。對於數據副本指在不同的節點上持久化同一份數據,當出現某一個節點的存儲的數據丟失時,可以從副本上讀到數據。

數據副本是分佈式系統解決數據丟失異常的唯一手段。另一類副本是服務副本,指數個節點提供某種相同的服務,這種服務一般並不依賴於節點的本地存儲,其所需數據一般來自其他節點。

副本協議是貫穿整個分佈式系統的理論核心。

副本一致性

分佈式系統通過副本控制協議,使得從系統外部讀取系統內部各個副本的數據在一定的約束條件下相同,稱之爲副本一致性 (consistency)。副本一致性是針對分佈式系統而言的,不是針對某一個副本而言。

  1. 強一致性 (strong consistency):任何時刻任何用戶或節點都可以讀到最近一次成功更新的副本數據。強一致性是程度最高的一致性要求,也是實踐中最難以實現的一致性。

  2. 單調一致性 (monotonic consistency):任何時刻,任何用戶一旦讀到某個數據在某次更新後的值,這個用戶不會再讀到比這個值更舊的值。

    單調一致性是弱於強一致性卻非常實用的一種一致性級別。因爲通常來說,用戶只關心從己方視角觀察到的一致性,而不會關注其他用戶的一致性情況。

  3. 會話一致性 (session consistency):任何用戶在某一次會話內一旦讀到某個數據在某次更新後的值,這個用戶在這次會話過程中不會再讀到比這個值更舊的值。

    會話一致性通過引入會話的概念,在單調一致性的基礎上進一步放鬆約束,會話一致性只保證單個用戶單次會話內數據的單調修改,對於不同用戶間的一致性和同一用戶不同會話間的一致性沒有保障。

    實踐中有許多機制正好對應會話的概念,例如 php 中的 session 概念。

  4. 最終一致性 (eventual consistency):最終一致性要求一旦更新成功,各個副本上的數據最終將達 到完全一致的狀態,但達到完全一致狀態所需要的時間不能保障。

    對於最終一致性系統而言,一個用戶只要始終讀取某一個副本的數據,則可以實現類似單調一致性的效果,但一旦用戶更換讀取的副本,則無法保障任何一致性。

  5. 弱一致性 (week consistency):一旦某個更新成功,用戶無法在一個確定時間內讀到這次更新的值,且即使在某個副本上讀到了新的值,也不能保證在其他副本上可以讀到新的值。

    弱一致性系統一般很難在實際中使用,使用弱一致性系統需要應用方做更多的工作從而使得系統可用。

1.3 衡量分佈式系統的指標

  1. 性能:系統的吞吐能力,指系統在某一時間可以處理的數據總量,通常可以用系統每秒處理的總的數據量來衡量;

    系統的響應延遲,指系統完成某一功能需要使用的時間;

    系統的併發能力,指系統可以同時完成某一功能的能力,通常也用 QPS(query per second) 來衡量。

    上述三個性能指標往往會相互制約,追求高吞吐的系統,往往很難做到低延遲;系統平均響應時間較長時,也很難提高 QPS。

  2. 可用性:系統的可用性 (availability) 指系統在面對各種異常時可以正確提供服務的能力。

    系統的可用性可以用系統停服務的時間與正常服務的時間的比例來衡量,也可以用某功能的失敗次數與成功次數的比例來衡量。可用性是分佈式的重要指標,衡量了系統的魯棒性,是系統容錯能力的體現。

  3. 可擴展性:系統的可擴展性 (scalability) 指分佈式系統通過擴展集羣機器規模提高系統性能(吞吐、延遲、併發)、存儲容量、計算能力的特性。好的分佈式系統總在追求“線性擴展性”,也就是使得系統的某一指標可以隨着集羣中的機器數量線性增長。

  4. 一致性:分佈式系統爲了提高可用性,總是不可避免的使用副本的機制,從而引發副本一致性的問題。越是強的一致的性模型,對於用戶使用來說使用起來越簡單。

2 分佈式系統原理

2.1 數據分佈方式

所謂分佈式系統顧名思義就是利用多臺計算機協同解決單臺計算機所不能解決的計算、存儲等問題。

單機系統與分佈式系統的最大的區別在於問題的規模,即計算、存儲的數據量的區別。

將一個單機問題使用分佈式解決,首先要解決的就是如何將問題拆解爲可以使用多機分佈式解決,使得分佈式系統中的每臺機器負責原問題的一個子集。由於無論是計算還是存儲,其問題輸入對象都是數據,所以如何拆解分佈式系統的輸入數據成爲分佈式系統的基本問題。

哈希方式

哈希分佈數據的缺點同樣明顯,突出表現爲可擴展性不高,一旦集羣規模需要擴展,則幾乎所有的數據需要被遷移並重新分佈。工程中,擴展哈希分佈數據的系統時,往往使得集羣規模成倍擴展,按照數據重新計算哈希,這樣原本一臺機器上的數據只需遷移一半到另一臺對應的機器上即可完成擴展。

針對哈希方式擴展性差的問題,一種思路是不再簡單的將哈希值與機器做除法取模映射,而是將對應關係作爲元數據由專門的元數據服務器管理. 同時,哈希值取模個數往往大於機器個數,這樣同一臺機器上需要負責多個哈希取模的餘數。但需要以較複雜的機制維護大量的元數據。哈希分佈數據的另一個缺點是,一旦某數據特徵值的數據嚴重不均,容易出現 “數據傾斜”(data skew)問題。

哈希分佈數據的另一個缺點是,一旦某數據特徵值的數據嚴重不均,容易出現 “數據傾斜”(data skew)問題

按數據範圍分佈

按數據範圍分佈是另一個常見的數據分佈式,將數據按特徵值的值域範圍劃分爲不同的區間,使得集羣中每臺(組)服務器處理不同區間的數據。

工程中,爲了數據遷移等負載均衡操作的方便,往往利用動態劃分區間的技術,使得每個區間中服務的數據量儘量的一樣多。當某個區間的數據量較大時,通過將區間 “分裂” 的方式拆分爲兩個區間,使得每個數據區間中的數據量都儘量維持在一個較爲固定的閾值之下。

一般的,往往需要使用專門的服務器在內存中維護數據分佈信息,稱這種數據的分佈信息爲一種元信息。甚至對於大規模的集羣,由於元信息的規模非常龐大,單臺 計算機無法獨立維護,需要使用多臺機器作爲元信息服務器。

按數據量分佈

數據量分佈數據與具體的數據特徵無關,而是將數據視爲一個順序增長的文件,並將這個文件按照某一較爲固定的大小劃分爲若干數據塊(chunk),不同的數據塊分佈到不同的服務器上

與按數據範圍分佈數據的方式類似的是,按數據量分佈數據也需要記錄數據塊的具體分佈情況,並將該分佈信息作爲元數據使用元數據服務器管理。

由於與具體的數據內容無關,按數據量分佈數據的方式一般沒有數據傾斜的問題,數據總是被均勻切分並分佈到集羣中。

當集羣需要重新負載均衡時,只需通過遷移數據塊即可完成。集羣擴容也沒有太大的限制,只需將部分數據庫遷移到新加入的機器上即可以完成擴容。

按數據量劃分數據的缺點是需要管理較爲複雜的元信息,與按範圍分佈數據的方式類似,當集羣規模較大時,元信息的數據量也變得很大,高效的管理元信息成爲新的課題。

一致性哈希

一致性哈希(consistent hashing)是另一個種在工程中使用較爲廣泛的數據分佈方式。一致性哈希最初在 P2P 網絡中作爲分佈式哈希表(DHT)的常用數據分佈算法。

一致性哈希的基本方式是使用一個哈希函數計算數據或數據特徵的哈希值,令該哈希函數的輸出值域爲一個封閉的環,即哈希函數輸出的最大值是最小值的前序。將節點隨機分佈到這個環上,每個節點負責處理從自己開始順時針至下一個節點的全部哈希值域上的數據。

使用一致性哈希的方式需要將節點在一致性哈希環上的位置作爲元信息加以管理,這點比直接使用哈希分佈數據的方式要複雜。然而,節點的位置信息只於集羣中的機器規模相關,其元信息的量通常比按數據範圍分佈數據和按數據量分佈數據的元信息量要小很多。

爲此一種常見的改進算法是引入虛節點(virtual node)的概念,系統初始時就創建許多虛節點,虛節點的個數一般遠大於未來集羣中機器的個數,將虛節點均勻分佈到一致性哈希值域環上,其功能與基本一致性哈希算法中的節點相同。爲每個節點分配若干虛節點。

操作數據時,首先通過數據的哈希值在環上找到對應的虛節點,進而查找元數據找到對應的真實節點。使用虛節點改進有多個優點。

首先,一旦某個節點不可用,該節點將使得多個虛節點不可用,從而使得多個相鄰的真實節點負載失效節點的壓裏。同理,一旦加入一個新節點,可以分配多個虛節點,從而使得新節點可以 負載多個原有節點的壓力,從全局看,較容易實現擴容時的負載均衡。

副本與數據分佈

分佈式系統容錯、提高可用性的基本手段就是使用副本。對於數據副本的分佈方式主要影響系統的可擴展性。一種基本的數據副本策略是以機器爲單位,若干機器互爲副本,副本機器之間的數據完全相同。這種策略適用於上述各種數據分佈方式。其優點是非常簡單,其缺點是恢復數據的效率不高、可擴展性也不高。

更合適的做法不是以機器作爲副本單位,而是將數據拆爲較合理的數據段,以數據段爲單位作爲副本。

搜索公衆號後端架構師後臺回覆 “架構整潔”,獲取一份驚喜禮包。

實踐中,常常使得每個數據段的大小盡量相等且控制在一定的大小以內。數據段有很多不同的稱謂,segment,fragment,chunk,partition 等等。數據段的選擇與數據分佈方式直接相關。

對於哈希分數據的方式,每個哈希分桶後的餘數可以作爲一個數據段,爲了控制數據段的大小,常常使得分桶個數大於集羣規模。一旦將數據分爲數據段,則可以以數據段爲單位管理副本,從而副本與機器不再硬相關,每臺機器都可以負責一定數據段的副本。

一旦副本分佈與機器無關,數據丟失後的恢復效率將非常高。這是因爲,一旦某臺機器的數據丟失,其上數據段的副本將分佈在整個集羣的所有機器中,而不是僅在幾個副本機器中,從而可以從整個集羣同時拷貝恢復數據,而集羣中每臺數據源機器都可以以非常低的資源做拷貝。作爲恢復數據源的機器即使都限速 1MB/s,若有 100 臺機器參與恢復,恢復速度也能達到 100MB/s。

再者,副本分佈與機器無關也利於集羣容錯。如果出現機器宕機,由於宕機機器上的副本分散於整個集羣,其壓力也自然分散到整個集羣。

最後,副本分佈與機器無關也利於集羣擴展。理論上,設集羣規模 爲 N 臺機器,當加入一臺新的機器時,只需從各臺機器上遷移 1/N – 1/N+1 比例的數據段到新機器即實現了新的負載均衡。由於是從集羣中各機器遷移數據,與數據恢復同理,效率也較高。

工程中,完全按照數據段建立副本會引起需要管理的元數據的開銷增大,副本維護的難度也相應增大。一種折中的做法是將某些數據段組成一個數據段分組,按數據段分組爲粒度進行副本管理。這樣做可以將副本粒度控制在一個較爲合適的範圍內。

本地化計算

在分佈式系統中,數據的分佈方式也深深影響着計算的分佈方式。在分佈式系統中計算節點和保存計算數據的存儲節點可以在同一臺物理機器上,也可以位於不同的物理機器。

如果計算節點和存儲節點位於不同的物理機器則計算的數據需要通過網絡傳輸,此種方式的開銷很大,甚至網絡帶寬會成爲系統的總體瓶頸。

另一種思路是,將計算儘量調度到與存儲節點在同一臺物理機器上的計算節點上進行,這稱之爲本地化計算。本地化計算是計算調度的一種重要優化,其體現了一種重要的分佈式調度思想:“移動數據不如移動計算”。

數據分佈方式的選擇

在實際工程實踐中,可以根據需求及實施複雜度合理選擇數據分佈方式。另外,數據分佈方式是可以靈活組合使用的,往往可以兼備各種方式的優點,收到較好的綜合效果。

例:數據傾斜問題,在按哈希分數據的基礎上引入按數據量分佈數據的方式,解決該數據傾斜問題。按用戶 id 的哈希值分數據,當某個用戶 id 的數據量特別大時,該用戶的數據始終落在某一臺機器上。此時,引入按數據量分佈數據的方式,統計用戶的數據量,並按某一閾值將用戶的數據切爲多個均勻的數據段,將這些數據段分佈到集羣中去。由於大部分用戶的數據量不會超過閾值,所以元數據中僅僅保存超過閾值的用戶的數據段分佈信息,從而可以控制元數據的規模。這種哈希分佈數據方式與按數據量分佈數據方式組合使用的方案,在某真實系統中使用,取得了較好的效果。

2.2 基本副本協議

副本控制協議指按特定的協議流程控制副本數據的讀寫行爲,使得副本滿足一定的可用性和一致性要求的分佈式協議。副本控制協議要具有一定的對抗異常狀態的容錯能力,從而使得系統具有一定的可用性,同時副本控制協議要能提供一定一致性級別。由 CAP 原理(在 2.9 節詳細分析)可知,要設計一種滿足強一致性,且在出現任何網絡異常時都可用的副本協議是不可能的。爲此,實際中的副本控制協議總是在可用性、一致性與性能等各要素之間按照具體需求折中。

副本控制協議可以分爲兩大類:“中心化 (centralized) 副本控制協議”和 “去中心化(decentralized) 副本控制協議”。

中心化副本控制協議

中心化副本控制協議的基本思路是由一箇中心節點協調副本數據的更新、維護副本之間的一致性。

圖給出了中心化副本協議的通用架構。中心化副本控制協議的優點是協議相對較爲簡單,所有的副本相關的控制交由中心節點完成。併發控制將由中心節點完成,從而使得一個分佈式併發控制問題,簡化爲一個單機併發控制問題。

所謂併發控制,即多個節點同時需要修改副本數據時,需要解決 “寫寫”、“讀寫” 等併發衝突。單機系統上常用加鎖等方式進行併發控制。對於分佈式併發控制,加鎖也是一個常用的方法,但如果沒有中心節點統一進行鎖管理,就需要完全分佈式化的鎖系統,會使得協議非常複雜。

中心化副本控制協議的缺點是系統的可用性依賴於中心化節點,當中心節點異常或與中心節點通信中斷時,系統將失去某些服務(通常至少失去更新服務),所以中心化副本控制協議的缺點正是存在一定的停服務時間。

primary-secondary 協議

在 primary-secondary 類型的協議中,副本被分爲兩大類,其中有且僅有一個副本作爲 primary 副本,除 primary 以外的副本都作爲 secondary 副本。維護 primary 副本的節點作爲中心節點,中心節點負責維護數據的更新、併發控制、協調副本的一致性。

Primary-secondary 類型的協議一般要解決四大類問題:數據更新流程、數據讀取方式、Primary 副本的確定和切換、數據同步(reconcile)。

數據更新基本流程
  1. 數據更新都由 primary 節點協調完成。

  2. 外部節點將更新操作發給 primary 節點

  3. primary 節點進行併發控制即確定併發更新操作的先後順序

  4. primary 節點將更新操作發送給 secondary 節點

  5. primary 根據 secondary 節點的完成情況決定更新是否成功並將結果返回外部節點

在工程實踐中,如果由 primary 直接同時發送給其他 N 個副本發送數據,則每個 secondary 的更新吞吐受限於 primary 總的出口網絡帶寬,最大爲 primary 網絡出口帶寬的 1/N。

爲了解決這個問題,有些系統(例如,GFS),使用接力的方式同步數據,即 primary 將更新發送給第一 個 secondary 副本,第一個 secondary 副本發送給第二 secondary 副本,依次類推。

數據讀取方式

數據讀取方式也與一致性高度相關。如果只需要最終一致性,則讀取任何副本都可以滿足需求。

如果需要會話一致性,則可以爲副本設置版本號,每次更新後遞增版本號,用戶讀取副本時驗證版本號,從而保證用戶讀到的數據在會話範圍內單調遞增。使用 primary-secondary 比較困難的是實現強一致性。

由於數據的更新流程都是由 primary 控制的,primary 副本上的數據一定是最新的,所以 如果始終只讀 primary 副本的數據,可以實現強一致性。如果只讀 primary 副本,則 secondary 副本將不提供讀服務。

實踐中,如果副本不與機器綁定,而是按照數據段爲單位維護副本,僅有 primary 副本提供讀服務在很多場景下並不會造出機器資源浪費。

將副本分散到集羣中個,假設 primary 也是隨機的確定的,那麼每臺機器上都有一些數據的 primary 副本,也有另一些數據段的 secondary 副本。從而某臺服務器實際都提供讀寫服務。

由 primary 控制節點 secondary 節點的可用性。當 primary 更新某個 secondary 副本不成功時,primary 將該 secondary 副本標記爲不可用,從而用戶不再讀取該不可用的副本。不可用的 secondary 副本可以繼續嘗試與 primary 同步數據,當與 primary 完成數據同步後,primary 可以副本標記爲可用。

這種方式使得所有的可用的副本,無論是 primary 還是 secondary 都是可讀的,且在一個確定的時間內,某 secondary 副本要麼更新到與 primary 一致的最新狀態,要麼被標記爲不可用,從而符合較高的一致性要求。這種方式依賴於一箇中心元數據管理系統,用於記錄哪些副本可用,哪些副本不可用。某種意義上,該方式通過降低系統的可用性來提高系統的一致性。

primary 副本的確定與切換

在 primary-secondary 類型的協議中,另一個核心的問題是如何確定 primary 副本,尤其是在原 primary 副本所在機器出現宕機等異常時,需要有某種機制切換 primary 副本,使得某個 secondary 副本成爲新的 primary 副本。

通常的,在 primary-secondary 類型的分佈式系統中,哪個副本是 primary 這一信息都屬於元信息,由專門的元數據服務器維護。執行更新操作時,首先查詢元數據服務器獲取副本的 primary 信息,從而進一步執行數據更新流程。

由於分佈式系統中可靠的發現節點異常是需要一定的探測時間的,這樣的探測時間通常是 10 秒級別,這也意味着一旦 primary 異常,最多需要 10 秒級別的發現時間,系統才能開始 primary 的切換,在這 10 秒時間內,由於沒有 primary,系統不能提供更 新服務,如果系統只能讀 primary 副本,則這段時間內甚至不能提供讀服務。從這裏可以看到,primary-backup 類副本協議的最大缺點就是由於 primary 切換帶來的一定的停服務時間。

數據同步

不一致的 secondary 副本需要與 primary 進行同步(reconcile)。

通常不一致的形式有三種:

對於第一種 secondary 數據落後的情況,常見的同步方式是回放 primary 上的操作日誌(通常是 redo 日誌),從而追上 primary 的更新進度。

對於髒數據的情況,較好的做法是設計的分佈式協議不產生髒數據。如果協議一定有產生髒數據的可能,則也應該使得產生髒數據的概率降到非常低得情況,從而一旦發生髒數據的情況可以簡單的直接丟棄有髒數據的副本,這樣相當於副本沒有數據。

另外,也可以設計一些基於 undo 日誌的方式從而可以刪除髒數據。如果 secondary 副本完全沒有數據,則常見的做法是直接拷貝 primary 副本的數據,這種方法往往比回放日誌追更新進度的方法快很多。但拷貝數據時 primary 副本需要能夠繼續提供更新服務,這就要求 primary 副本支持快照 (snapshot) 功能。即對某一刻的副本數據形成快照,然後拷貝快照,拷貝完成後使用回放日誌的方式追快照形成後的更新操作。

去中心化副本控制協議

去中心化副本控制協議沒有中心節點,協議中所有的節點都是完全對等的,節點之間通過平等協商達到一致。從而去中心化協議沒有因爲中心化節點異常而帶來的停服務等問題。

去中心化協議的最大的缺點是協議過程通常比較複雜。尤其當去中心化協議需要實現強一致性時,協議流程變得複雜且不容易理解。由於流程的複雜,去中心化協議的效率或者性能一般也較中心化協議低。一個不恰當的比方就是,中心化副本控制協議類似專制制度,系統效率高但高度依賴於中心節點,一旦中心節點異常,系統受到的影響較大;去中心化副本控制協議類似民主制度,節點集體協商,效率低下,但個別節點的異常不會對系統總體造成太大影響。

2.3 Lease 機制

Lease 機制是最重要的分佈式協議,廣泛應用於各種實際的分佈式系統中。

基於 lease 的分佈式 cache 系統

基本的問題背景如下:在一個分佈式系統中,有一箇中心服務器節點,中心服務器存儲、維護着一些數據,這些數據是系統的元數據。系統中其他的節點通過訪問中心服務器節點讀取、修改其上的元數據。

由於系統中各種操作都依賴於元數據,如果每次讀取元數據的操作都訪問中心服務器 節點,那麼中心服務器節點的性能成爲系統的瓶頸。爲此,設計一種元數據 cache,在各個節點上 cache 元數據信息,從而減少對中心服務器節點的訪問,提高性能。

另一方面,系統的正確運行嚴格依賴於元數據的正確,這就要求各個節點上 cache 的數據始終與中心服務器上的數據一致,cache 中的數據不能是舊的髒數據。最後,設計的 cache 系統要能最大可能的處理節點宕機、網絡中斷等異常,最大程度的提高系統的可用性。

爲此,利用 lease 機制設計一套 cache 系統,其基本原理爲如下。

中心服務器在向各節點發送數據時同時向節點頒發一個 lease。每個 lease 具有一個有效期,和信用卡上的有效期類似,lease 上的 有效期通常是一個明確的時間點,例如 12:00:10,一旦真實時間超過這個時間點,則 lease 過期失效。這樣 lease 的有效期與節點收到 lease 的時間無關,節點可能收到 lease 時該 lease 就已經過期失效。這裏首先假設中心服務器與各節點的時鐘是同步的,在下節中討論時鐘不同步對 lease 的影響。

中心服務器發出的 lease 的含義爲:在 lease 的有效期內,中心服務器保證不會修改對應數據的值。因此,節點收到數據和 lease 後,將數據加入本地 Cache,一旦對應的 lease 超時,節點將對應的本地 cache 數據刪除。中心服務器在修改數據時,首先阻塞所有新的讀請求,並等待之前爲該數據發出的所有 lease 超時過期,然後修改數據的值。

基於 lease 的 cache,客戶端節點讀取元數據

  1. 判斷元數據是否已經處於本地 cache 且 lease 處於有效期內 1.1 是:直接返回 cache 中的元數據 1.2 否:向中心服務器節點請求讀取元數據信息 1.2.1 服務器收到讀取請求後,返回元數據及一個對應的 lease 1.2.2 客戶端是否成功收到服務器返回的數據  1.2.2.1 失敗或超時:退出流程,讀取失敗,可重試 1.2.2.2 成功:將元數據與該元數據的 lease 記錄到內存中,返回元數據

  2. 基於 lease 的 cache,客戶端節點修改元數據流程 2.1 節點向服務器發起修改元數據請求。2.2 服務器收到修改請求後,阻塞所有新的讀數據請求,即接收讀請求,但不返回數據。2.3 服務器等待所有與該元數據相關的 lease 超時。2.4 服務器修改元數據並向客戶端節點返回修改成功。

上述機制可以保證各個節點上的 cache 與中心服務器上的中心始終一致。這是因爲中心服務器節點在發送數據的同時授予了節點對應的 lease,在 lease 有效期內,服務器不會修改數據,從而客戶端節點可以放心的在 lease 有效期內 cache 數據。

上述 lease 機制可以容錯的關鍵是:服務器一旦 發出數據及 lease,無論客戶端是否收到,也無論後續客戶端是否宕機,也無論後續網絡是否正常,服務器只要等待 lease 超時,就可以保證對應的客戶端節點不會再繼續 cache 數據,從而可以放心的修改數據而不會破壞 cache 的一致性。

上述基礎流程有一些性能和可用性上的問題,但可以很容易就優化改性。優化點一:服務器在修改元數據時首先要阻塞所有新的讀請求,造成沒有讀服務。這是爲了防止發出新的 lease 從而引起不斷有新客戶端節點持有 lease 並緩存着數據,形成 “活鎖”。優化的方法很簡單,服務器在進入修改數據流程後,一旦收到讀請求則只返回數據但不頒發 lease。

從而造成在修改流程執行的過程中,客戶端可以讀到元數據,只是不能緩存元數據。進一步的優化是,當進入修改流程,服務器頒發的 lease 有效期限選擇爲已發出的 lease 的最大有效期限。這樣做,客戶端可以繼續在服務器進入修改流程後繼續緩存元數據,但服務器的等待所有 lease 過期的時間也不會因爲頒發新的 lease 而不斷延長。

最後,=cache 機制與多副本機制的區別。Cache 機制與多副本機制的相似之處都 是將一份數據保存在多個節點上。但 Cache 機制卻要簡單許多,對於 cache 的數據,可以隨時刪除丟棄,並命中 cache 的後果僅僅是需要訪問數據源讀取數據;然而副本機制卻不一樣,副本是不能隨意丟棄的,每失去一個副本,服務質量都在下降,一旦副本數下降到一定程度,則往往服務將不再可用。

lease 機制的分析

lease 的定義:Lease 是由頒發者授予的在某一有效期內的承諾。頒發者一旦發出 lease,則無論接受方是否收到,也無論後續接收方處於何種狀態,只要 lease 不過期,頒發者一定嚴守承諾;另一方面,接收方在 lease 的有效期內可以使用頒發者的承諾,但一旦 lease 過期,接收方一定不能繼續使用頒發者的承諾。

Lease 機制具有很高的容錯能力。首先,通過引入有效期,Lease 機制能否非常好的容錯網絡異常。Lease 頒發過程只依賴於網絡可以單向通信,即使接收方無法向頒發者發送消息,也不影響 lease 的頒發。

由於 lease 的有效期是一個確定的時間點,lease 的語義與發送 lease 的具體時間無關,所以 同一個 lease 可以被頒發者不斷重複向接受方發送。即使頒發者偶爾發送 lease 失敗,頒發者也可以 簡單的通過重發的辦法解決。一旦 lease 被接收方成功接受,後續 lease 機制不再依賴於網絡通信,即使網絡完全中斷 lease 機制也不受影響。

再者,Lease 機制能較好的容錯節點宕機。如果頒發者宕機,則宕機的頒發者通常無法改變之前的承諾,不會影響 lease 的正確性。在頒發者機恢復後,如果頒發者恢復出了之前的 lease 信息,頒發者可以繼續遵守 lease 的承諾。如果頒發者無法恢復 lease 信息,則只需等待一個最大的 lease 超時時間就可以使得所有的 lease 都失效,從而不破壞 lease 機制。

例如上節中的 cache 系統的例子中,一旦服務器宕機,肯定不會修改元數據,重新恢復後,只需等待一個最大的 lease 超時時間,所有節點上的緩存信息都將被清空。

對於接受方宕機的情況,頒發者 不需要做更多的容錯處理,只需等待 lease 過期失效,就可以收回承諾,實踐中也就是收回之前賦予的權限、身份等。最後,lease 機制不依賴於存儲。頒發者可以持久化頒發過的 lease 信息,從而在 宕機恢復後可以使得在有效期的 lease 繼續有效。但這對於 lease 機制只是一個優化,如之前的分析,即使頒發者沒有持久化 lease 信息,也可以通過等待一個最大的 lease 時間的方式使得之前所有頒發 的 lease 失效,從而保證機制繼續有效。

Lease 機制依賴於有效期,這就要求頒發者和接收者的時鐘是同步的。一方面,如果頒發者的 時鐘比接收者的時鐘慢,則當接收者認爲 lease 已經過期的時候,頒發者依舊認爲 lease 有效。接收者可以用在 lease 到期前申請新的 lease 的方式解決這個問題。另一方面,如果頒發者的時鐘比接收 者的時鐘快,則當頒發者認爲 lease 已經過期的時候,接收者依舊認爲 lease 有效,頒發者可能將 lease 頒發給其他節點,造成承諾失效,影響系統的正確性。對於這種時鐘不同步,實踐中的通常做法是將頒發者的有效期設置得比接收者的略大,只需大過時鐘誤差就可以避免對 lease 的有效性的影響。

基於 lease 機制確定節點狀態

分佈式協議依賴於對節點狀態認知的全局一致性,即一旦節點 Q 認爲某個節點 A 異常,則節點 A 也必須認爲自己異常,從而節點 A 停止作爲 primary,避免 “雙主” 問題的出現。

解決這種問題有兩種思路,第一、設計的分佈式協議可以容忍 “雙主” 錯誤,即不依賴於對節點狀 態的全局一致性認識,或者全局一致性狀態是全體協商後的結果;

第二、利用 lease 機制。對於第一 種思路即放棄使用中心化的設計,而改用去中心化設計,超過本節的討論範疇。下面着重討論利用 lease 機制確定節點狀態。

由中心節點向其他節點發送 lease,若某個節點持有有效的 lease,則認爲該節點正常可以提供服 務。用於例 2.3.1 中,節點 A、B、C 依然週期性的發送 heart beat 報告自身狀態,節點 Q 收到 heart beat 後發送一個 lease,表示節點 Q 確認了節點 A、B、C 的狀態,並允許節點在 lease 有效期內正常工 作。節點 Q 可以給 primary 節點一個特殊的 lease,表示節點可以作爲 primary 工作。一旦節點 Q 希望切換新的 primary,則只需等前一個 primary 的 lease 過期,則就可以安全的頒發新的 lease 給新的 primary 節點,而不會出現 “雙主” 問題。

在實際系統中,若用一箇中心節點發送 lease 也有很大的風險,一旦該中心節點宕機或網絡異常,則所有的節點沒有 lease,從而造成系統高度不可用。爲此,實際系統總是使用多箇中心節點互爲副本,成爲一個小的集羣,該小集羣具有高可用性,對外提供頒發 lease 的功能。chubby 和 zookeeper 都是基於這樣的設計。

lease 的有效期時間選擇

工程中,常選擇的 lease 時長是 10 秒級別,這是一個經過驗證的經驗值,實踐中可以作爲參考並綜合選擇合適的時長。

2.4 Quorum 機制

先做這樣的約定:更新操作(write)是一系列順序的過程,通過其他機制確定更新操作的順序(例如 primary-secondary 架構中由 primary 決定順序),每個更新操作記爲 wi, i 爲更新操作單調遞增的序號,每個 wi 執行成功後副本數據都發生變化,稱爲不同的數據版本,記 作 vi。假設每個副本都保存了歷史上所有版本的數據。

write-all-read-one

Write-all-read-one(簡稱 WARO)是一種最簡單的副本控制規則,顧名思義即在更新時寫所有的副本,只有在所有的副本上更新成功,才認爲更新成功,從而保證所有的副本一致,這樣在讀取數據時可以讀任一副本上的數據。

由於更新操作需要在所有的 N 個副本上都成功,更新操作才能成 功,所以一旦有一個副本異常,更新操作失敗,更新服務不可用。對於更新服務,雖然有 N 個副本, 但系統無法容忍任何一個副本異常。另一方面,N 個副本中只要有一個副本正常,系統就可以提供讀服務。對於讀服務而言,當有 N 個副本時,系統可以容忍 N-1 個副本異常。從上述分析可以發現 WARO 讀服務的可用性較高,但更新服務的可用性不高,甚至雖然使用了副本,但更新服務的可用性等效於沒有副本。

Quorum 定義

在 Quorum 機制下,當某次更新操作 wi 一旦在所有 N 個副本中的 W 個副本上都成功,則就稱 該更新操作爲 “成功提交的更新操作”,稱對應的數據爲 “成功提交的數據”。令 R>N-W,由於更新 操作 wi 僅在 W 個副本上成功,所以在讀取數據時,最多需要讀取 R 個副本則一定能讀到 wi 更新後 的數據 vi 。如果某次更新 wi 在 W 個副本上成功,由於 W+R>N,任意 R 個副本組成的集合一定與 成功的 W 個副本組成的集合有交集,所以讀取 R 個副本一定能讀到 wi 更新後的數據 vi。

如圖 2-10, Quorum 機制的原理可以文森圖表示。

某系統有 5 個副本,W=3,R=3,最初 5 個副本的數據一致,都是 v1,某次更新操作 w2 在前 3 副本上成功,副本情況變成(v2 v2 v2 v1 v1)。

此時,任意 3 個副本組成的集合中一定包括 v2。在上述定義中,令 W=N,R=1,就得到 WARO,即 WARO 是 Quorum 機制的一種特例。與分析 WARO 相似,分析 Quorum 機制的可用性。限制 Quorum 參數爲 W+R=N+1。由於更新 操作需要在 W 個副本上都成功,更新操作才能成功,所以一旦 N-W+1 個副本異常,更新操作始終無法在 W 個副本上成功,更新服務不可用。

另一方面,一旦 N-R+1 個副本異常,則無法保證一定可以讀到與 W 個副本有交集的副本集合,則讀服務的一致性下降。

再次強調:僅僅依賴 quorum 機制是無法保證強一致性的。因爲僅有 quorum 機制時無法確定最新已成功提交的版本號,除非將最新已提交的版本號作爲元數據由特定的元數據服務器或元數據集羣管理,否則很難確定最新成功提交的版本號。在下一節中,將討論在哪些情況下,可以僅僅 通過 quorum 機制來確定最新成功提交的版本號。

Quorum 機制的三個系統參數 N、W、R 控制了系統的可用性,也是系統對用戶的服務承諾:數據最多有 N 個副本,但數據更新成功 W 個副本即返回用戶成功。對於一致性要求較高的 Quorum 系統,系統還應該承諾任何時候不讀取未成功提交的數據,即讀取到的數據都是曾經在 W 個副本上成功的數據。

讀取最新成功提交的數據

Quorum 機制只需成功更新 N 個副本中的 W 個,在讀取 R 個副本時,一定可以讀到最新的成功提交的數據。但由於有不成功的更新情況存在,僅僅讀取 R 個副本卻不一定能確定哪個版本的數據 是最新的已提交的數據。對於一個強一致性 Quorum 系統,若存在個數據少於 W 個,假設爲 X 個,則繼續讀取其他副本,直若成功讀取到 W 個 該版本的副本,則該數據爲最新的成功提交的數據;如果在所有副本中該數據的個數肯定不滿 足 W 個,則 R 中版本號第二大的爲最新的成功提交的副本。

例:在讀取到(v2 v1 v1)時,繼續讀取剩餘的副本,若讀到剩餘兩個副本 爲(v2 v2)則 v2 是最新的已提交的副本;若讀到剩餘的兩個副本爲(v2 v1)或(v1 v1)則 v1 是最新成功提交的版本;若讀取後續兩個副本有任一超時或失敗,則無法判斷哪個版本是最新的成功提交的版本。

可以看出,在單純使用 Quorum 機制時,若要確定最新的成功提交的版本,最多需要讀取 R+ (W-R-1)=N 個副本,當出現任一副本異常時,讀最新的成功提交的版本這一功能都有可能不可用。

實際工程中,應該儘量通過其他技術手段,迴避通過 Quorum 機制讀取最新的成功提交的版本。例如,當 quorum 機制與 primary-secondary 控制協議結合使用時,可以通過讀取 primary 的方式讀取到最新的已提交的數據。

基於 Quorum 機制選擇 primary 副本

讀取數據時依照一致性要求的不同可以有不同的做法:如果需要強一致性的立刻讀取到最新的成功提交的數據,則可以簡單的只讀取 primary 副本上的數據即可,也可以通過上節的方式讀取;

搜索公衆號後端架構師後臺回覆 “面試”,獲取一份驚喜禮包。

如果需要會話一致性,則可以根據之前已經讀到的數據版本號在各個副本上進行選擇性讀取;如果只需要弱一致性,則可以選擇任意副本讀取。

在 primary-secondary 協議中,當 primary 異常時,需要選擇出一個新的 primary,之後 secondary 副本與 primary 同步數據。

通常情況下,選擇新的 primary 的工作是由某一中心節點完成的,在引入 quorum 機制後,常用的 primary 選擇方式與讀取數據的方式類似,即中心節點讀取 R 個副本,選擇 R 個副本中版本號最高的副本作爲新的 primary。新 primary 與至少 W 個副本完成數據同步後作爲新的 primary 提供讀寫服務。

首先,R 個副本中版本號最高的副本一定蘊含了最新的成功提交的數據。再者,雖然不能確定最高版本號的數是一個成功提交的數據,但新的 primary 在隨後與 secondary 同 步數據,使得該版本的副本個數達到 W,從而使得該版本的數據成爲成功提交的數據。

例:在 N=5,W=3,R=3 的系統中,某時刻副本最大版本號爲(v2 v2 v1 v1 v1),此時 v1 是系統的最新的成功提交的數據,v2 是一個處於中間狀態的未成功提交的數據。假設此刻原 primary 副本異常,中心節點進行 primary 切換工作。這類 “中間態” 數據究竟作爲 “髒數據” 被刪除,還是作爲新的數據被同步後成爲生效的數據,完全取決於這個數據能否參與新 primary 的選舉。下面分別分析這兩種情況。

第一、如圖 2-12,若中心節點與其中 3 個副本通信成功,讀取到的版本號爲(v1 v1 v1),則任 選一個副本作爲 primary,新 primary 以 v1 作爲最新的成功提交的版本並與其他副本同步,當與第 1、第 2 個副本同步數據時,由於第 1、第 2 個副本版本號大於 primary,屬於髒數據,可以按照 2.2.2.4 節中介紹的處理髒數據的方式解決。

實踐中,新 primary 也有可能與後兩個副本完成同步後就提供數據服務,隨後自身版本號也更新到 v2,如果系統不能保證之後的 v2 與之前的 v2 完全一樣,則新 primary 在與第 1、2 個副本同步數據時不但要比較數據版本號還需要比較更新操作的具體內容是否一樣。

第二、若中心節點與其他 3 個副本通信成功,讀取到的版本號爲(v2 v1 v1),則選取版本號爲 v2 的副本作爲新的 primary,之後,一旦新 primary 與其他 2 個副本完成數據同步,則符合 v2 的副 本個數達到 W 個,成爲最新的成功提交的副本,新 primary 可以提供正常的讀寫服務。

2.5 日誌技術

日誌技術是宕機恢復的主要技術之一。日誌技術最初使用在數據庫系統中。嚴格來說日誌技術不是一種分佈式系統的技術,但在分佈式系統的實踐中,卻廣泛使用了日誌技術做宕機恢復,甚 至如 BigTable 等系統將日誌保存到一個分佈式系統中進一步增強了系統容錯能力。

Redo Log 與 Check point

設計一個高速的單機查詢系統,將數據全部存放在內存中以實現高速的數據查詢,每次更新操作更新一小部分數據(例如 key-value 中的某一個 key)。現在問題爲利用日誌技術實現該內存查詢系統的宕機恢復。與數據庫的事務不同的是,這個問題模型中的每個成功的更新操作都會生效。這也等效爲數據庫的每個事務只有一個更新操作,且每次更新操作都可以也必須立即提交(Auto commit)。

  1. 將更新操作的結果(例如 Set K1=1,則記錄 K1=1)以追加寫(append)的方式寫入磁盤的 日誌文件

  2. 按更新操作修改內存中的數據

  3. 返回更新成功

從 Redo Log 的流程可以看出,Redo 寫入日誌的是更新操作完成後的結果(雖然本文不討論 Undo Log,這點是與 Undo Log 的區別之一),且由於是順序追加寫日誌文件,在磁盤等對順序寫有力的 存儲設備上效率較高。

用 Redo Log 進行宕機恢復非常簡單,只需要 “回放” 日誌即可。

從 Redo Log 的宕機恢復流程也可以看出,只有寫入日誌文件的更新結果才能在宕機後恢復。這也是爲什麼在 Redo Log 流程中需要先更新日誌文件再更新內存中的數據的原因。

假如先更新內存中的數據,那麼用戶立刻就能讀到更新後的數據,一旦在完成內存修改與寫入日誌之間發生宕機,那麼最後一次更新操作無法恢復,但之前用戶可能已經讀取到了更新後的數據,從而引起不一致的問題。

在簡化的模型下,check point 技術的過程即將內存中的數據以某種易於重新加載的數據組織方式完整的 dump 到磁盤,從而減少宕機恢復時需要回放的日誌數據。

流程:check point

  1. 向日志文件中記錄 “Begin Check Point”

  2. 將內存中的數據以某種易於重新加載的數據組織方式 dump 到磁盤上

  3. 向日志文件中記錄 “End Check Point” 在 check point 流程中,數據可以繼續按照流程 2.5.1 被更新,這段過程中新更新的數據可以 dump 到磁盤也可以不 dump 到磁盤,具體取決於實現。例如,check point 開始時 k1=v1,check point 過程 中某次更新爲 k1 = v2,那麼 dump 到磁盤上的 k1 的值可以是 v1 也可以是 v2。

流程:基於 check point 的宕機恢復流程

  1. 將 dump 到磁盤的數據加載到內存。

  2. 從後向前掃描日誌文件,尋找最後一個 “End Check Point” 日誌。

  3. 從最後一個 “End Check Point” 日誌向前找到最近的一個 “Begin Check Point” 日誌,並回 放該日誌之後的所有更新操作日誌。

若數據維護在磁盤中,某批更新由若干個更新操作組成,這些更新操作需要原子生效,即要麼同時生效,要麼都不生效。

0/1 目錄技術中有兩個目錄結構,稱爲目錄 0(Directory 0) 和目錄 1(Directory 1)。另有一個結構稱爲主記錄(Master record)記錄當前正在使用的目錄稱爲活動目錄。主記錄中要麼記錄使用目錄 0,要麼記錄使用目錄 1。目錄 0 或目錄 1 中記錄了各個數據的在日誌文件中的位置。0/1 目錄的數據更新過程始終在非活動目錄上進行,只是在數據生效前,將主記錄中的 0、1 值反轉,從而切換主記錄。

流程:0/1 目錄數據更新流程

  1. 將活動目錄完整拷貝到非活動目錄。

  2. 對於每個更新操作,新建一個日誌項紀錄操作後的值,並在非活動目錄中將相應數據的位置修改爲新建的日誌項的位置。

  3. 原子性修改主記錄:反轉主記錄中的值,使得非活動目錄生效。

0/1 目錄的更新流程非常簡單,通過 0、1 目錄的主記錄切換使得一批修改的生效是原子的。0/1 目錄將批量事務操作的原子性通過目錄手段歸結到主記錄的原子切換。

由於多條記錄的原子修改一般較難實現而單條記錄的原子修改往往可以實現,從而降低了問題實現的難度。

在工程中 0/1 目錄的思想運用非常廣泛,其形式也不侷限在上述流程中,可以是內存中的兩個數據結構來回切換,也可以是磁盤上的兩個文件目錄來回生效切換。

2.6 兩階段提交協議

兩階段提交協議是一種經典的強一致性中心化副本控制協議。雖然在工程中該協議有較多的問題,但研究該協議能很好的理解分佈式系統的幾個典型問題。

流程描述

兩階段提交協議是一種典型的 “中心化副本控制” 協議。在該協議中,參與的節點分爲兩類:一箇中心化協調者節點(coordinator)和 N 個參與者節點(participant)。每個參與者節點即上文背景介紹中的管理數據庫副本的節點。

兩階段提交的思路比較簡單,在第一階段,協調者詢問所有的參與者是否可以提交事務(請參與者投票),所有參與者向協調者投票。

在第二階段,協調者根據所有參與者的投票結果做出是否事務可以全局提交的決定,並通知所有的參與者執行該決定。在一個兩階段提交流程中,參與者不能改變自己的投票結果。

兩階段提交協議的可以全局提交的前提是所有的參與者都同意提交事務,只要有一個參與者投票選擇放棄 (abort) 事務,則事務必須被放棄。

流程:兩階段提交協調者流程

  1. 寫本地日誌 “begin_commit”,並進入 WAIT 狀態;

  2. 向所有參與者發送 “prepare 消息”;

  3. 等待並接收參與者發送的對 “prepare 消息” 的響應;3.1 若收到任何一個參與者發送的 “vote-abort 消息”;3.1.1 寫本地“global-abort” 日誌,進入 ABORT;3.1.2 向所有的參與者發送 “global-abort 消息”;3.1.3 進入 ABORT 狀態;3.2 若收到所有參與者發送的“vote-commit” 消息;3.2.1 寫本地 “global-commit” 日誌,進入 COMMIT 狀態;3.1.2 向所有的參與者發送“global-commit 消息”;

  4. 等待並接收參與者發送的對 “global-abort 消息” 或“global-commit 消息”的確認響應消息,一旦收到所有參與者的確認消息,寫本地“end_transaction” 日誌流程結束。

流程:兩階段提交協調者流程

  1. 寫本地日誌 “init” 記錄,進入 INIT 狀態

  2. 等待並接受協調者發送的 “prepare 消息”,收到後  2.1 若參與者可以提交本次事務 2.1.1 寫本地日誌“ready”,進入 READY 狀態 2.1.2 向協調者發送“vote-commit” 消息 2.1.4 等待協調者的消息 2.1.4.1 若收到協調者的 “global-abort” 消息 2.1.4.1.1 寫本地日誌 “abort”,進入 ABORT 狀態 2.1.4.1.2 向協調者發送對“global-abort” 的確認消息  2.1.4.2 若收到協調者的 “global-commit” 消息 2.1.4.1.1 寫本地日誌 “commit”,進入 COMMIT 狀態   2.1.4.1.2 向協調者發送對“global-commit” 的確認消息  2.2 若參與者無法提交本次事務 2.2.1 寫本地日誌 “abort”,進入 ABORT 狀態 2.2.2 向協調者發送“vote-abort” 消息 2.2.3 流程對該參與者結束 2.2.4 若後續收到協調者的 “global-abort” 消息可以響應

  3. 即使流程結束,但任何時候收到協調者發送的 “global-abort” 消息或 “global-commit” 消息也都要發送一個對應的確認消息。

異常處理

宕機恢復
  1. 協調者宕機恢復 協調者宕機恢復後,首先通過日誌查找到宕機前的狀態。如果日誌中最後是 “begin_commit” 記錄,說明宕機前協調者處於 WAIT 狀態,協調者可能已經發送過 “prepare 消息” 也可能還沒發送,但協調者一定還沒有發送過 “global-commit 消息” 或“global-abort 消息”,即事務的全局狀態還沒有確定。此時,協調者可以重新發送 “prepare 消息” 繼續兩階段提交流程,即使參與者已經發送過對“prepare 消息” 的響應,也不過是再次重傳之前的響應而不會影響協議的一致性。如果日誌中最後是 “global-commit” 或“global-abort”記錄,說明宕機前協調者處於 COMMIT 或 ABORT 狀態。此時協調者只需重新向所有的參與者發送 “global-commit 消息” 或“global-abort 消息”就可以繼續兩階段提交流程。

  2. 參與者宕機恢復參與者宕機恢復後,首先通過日誌查找宕機前的狀態。如果日誌中最後是 “init” 記錄,說明參與者處於 INIT 狀態,還沒有對本次事務做出投票選擇,參與者可以繼續流程等待協調者發送的 “prepare 消息”。如果日誌中最後是“ready” 記錄,說明參與者處於 REDAY 狀態,此時說明參與者已經就本次 事務做出了投票選擇,但宕機前參與者是否已經向協調者發送 “vote-commit” 消息並不可知。所以此時參與者可以向協調者重發 “vote-commit”,並繼續協議流程。如果日誌中最後是“commit” 或“abort”記錄,說明參與者已經收到過協調者的 “global-commit 消息”(處於 COMMIT 狀態)或者“global-abort 消息”(處於 ABORT 狀態)。至於是否向協調者發 送過對“global-commit” 或“global-abort”的確認消息則未知。但即使沒有發送過確認消息,由於協調者會不斷重發 “global-commit” 或“global-abort”,只需在收到這些消息時發送確認消息既可,不影響協議的全局一致性。

協議分析

兩階段提交協議在工程實踐中真正使用的較少,主要原因有以下幾點:

  1. 兩階段提交協議的容錯能力較差。從上文的分析可以看出,兩階段提交協議在某些情況下存在流程無法執行下去的情況,且也無法判斷流程狀態。在工程中好的分佈式協議往往總是可以在即使發生異常的情況下也能執行下去。例如,回憶 Lease 機制(2.3 ),一旦 lease 發出,無論出現任何異常,Lease 服務器節點總是可以通過時間判定出 Lease 是否有效,也可以用等待 Lease 超時的方法收回 Lease 權限,整個 Lease 協議的流程不存在任何流程被阻塞而無法執行下去的情況。與 Lease 機制的簡單有效相比,兩階段提交的協議顯得較爲複雜且容錯能力差。

  2. 兩階段提交協議的性能較差。一次成功的兩階段提交協議流程中,協調者與每個參與者 之間至少需要兩輪交互 4 個消息 “prepare”、“vote-commit”、“global-commit”、“確認 global-commit”。過多的交互次數會降低性能。另一方面,協調者需要等待所有的參與者的投票結果,一旦存在較慢的參與者,會影響全局流程執行速度。

雖然存在一些改進的兩階段提交協議可以提高容錯能力和性能,然而這類協議依舊是在工程中使用較少的一類協議,其理論價值大於實踐意義。

2.7 MVCC

MVCC(Multi-version Cocurrent Control,多版本併發控制) 技術。MVCC 技術最初也是在數據庫系統中被提出,但這種思想並不侷限於單機的分佈式系統,在分佈式系統中同樣有效。

MVCC 即多個不同版本的數據實現併發控制的技術,其基本思想是爲每次事務生成 一個新版本的數據,在讀數據時選擇不同版本的數據即可以實現對事務結果的完整性讀取。在使用 MVCC 時,每個事務都是基於一個已生效的基礎版本進行更新,事務可以並行進行,從而可以產生一種圖狀結構。

基礎數據的版本爲 1,同時產生了兩個事務:事務 A 與事務 B。這兩個事務都各自對數據進行了一些本地修改(這些修改只有事務自己可見,不影響真正的數據),之後事務 A 首先提交,生成數據版本 2;基於數據版本 2,又發起了事務 C,事務 C 繼續提交,生成了數據版 本 3;最後事務 B 提交,此時事務 B 的結果需要與事務 C 的結果合併,如果數據沒有衝突,即事務 B 沒有修改事務 A 與事務 C 修改過的變量,那麼事務 B 可以提交,否則事務 B 提交失敗。

MVCC 的流程過程非常類似於 SVN 等版本控制系統的流程,或者說 SVN 等版本控制系統就是 使用的 MVCC 思想。事務在基於基礎數據版本做本地修改時,爲了不影響真正的數據,通常有兩種做法,一是將基礎數據版本中的數據完全拷貝出來再修改,SVN 即使用了這種方法,SVN check out 即是拷貝的過程;二是每個事務中只記錄更新操作,而不記錄完整的數據,讀取數據時再將更新操作應用到用基礎版本的數據從而計算出結果,這個過程也類似 SVN 的增量提交。

2.8 Paxos 協議

Paxos 協議是少數在工程實踐中證實的強一致性、高可用的去中心化分佈式協議。Paxos 協議的流程較爲複雜,但其基本思想卻不難理解,類似於人類社會的投票過程。Paxos 協議中,有一組完全對等的參與節點(稱爲 accpetor),這組節點各自就某一事件做出決議,如果某個決議獲得了超過半數節點的同意則生效。Paxos 協議中只要有超過一半的節點正常,就可以工作,能很好對抗宕機、網絡分化等異常情況。

角色

Proposer:提案者。Proposer 可以有多個,Proposer 提出議案(value)。所謂 value,在工程中可以是任何操作,例如 “修改某個變量的值爲某個值”、“設置當前 primary 爲某個節點” 等等。Paxos 協議中統一將這些操作抽象爲 value。不同的 Proposer 可以提出不同的甚至矛盾的 value,例如某個 Proposer 提議 “將變量 X 設置爲 1”,另一個 Proposer 提議“將變量 X 設置爲 2”,但對同一輪 Paxos 過程,最多隻有一個 value 被批准。Acceptor:批准者。Acceptor 有 N 個,Proposer 提出的 value 必須獲得超過半數(N/2+1) 的 Acceptor 批准後才能通過。Acceptor 之間完全對等獨立。Learner:學習者。Learner 學習被批准的 value。所謂學習就是通過讀取各個 Proposer 對 value 的選擇結果,如果某個 value 被超過半數 Proposer 通過,則 Learner 學習到了這個 value。回憶(2.4 ) 不難理解,這裏類似 Quorum 機制,某個 value 需要獲得 W=N/2 + 1 的 Acceptor 批准,從而學習者需要至少讀取 N/2+1 個 Accpetor,至多讀取 N 個 Acceptor 的結果後,能學習到一個通過的 value。上述三類角色只是邏輯上的劃分,實踐中一個節點可以同時充當這三類角色。

流程

Paxos 協議一輪一輪的進行,每輪都有一個編號。每輪 Paxos 協議可能會批准一個 value,也可 能無法批准一個 value。如果某一輪 Paxos 協議批准了某個 value,則以後各輪 Paxos 只能批准這個 value。上述各輪協議流程組成了一個 Paxos 協議實例,即一次 Paxos 協議實例只能批准一個 value,這也是 Paxos 協議強一致性的重要體現。每輪 Paxos 協議分爲階段,準備階段和批准階段,在這兩個階段 Proposer 和 Acceptor 有各自的處理流程。

流程:Proposer 的流程 (準備階段)

  1. 向所有的 Acceptor 發送消息 “Prepare(b)”;這裏 b 是 Paxos 的輪數,每輪遞增

  2. 如果收到任何一個 Acceptor 發送的消息 “Reject(B)”,則對於這個 Proposer 而言本輪 Paxos 失敗,將輪數 b 設置爲 B+1 後重新步驟 1;(批准階段,根據收到的 Acceptor 的消息作出不同選擇)

  3. 如果接收到的 Acceptor 的 “Promise(b, v_i)” 消息達到 N/2+1 個(N 爲 Acceptor 總數,除法取整, 下同);v_i 表示 Acceptor 最近一次在 i 輪批准過 value v。3.1 如果收到的 “Promise(b, v)” 消息中,v 都爲空,Proposer 選擇一個 value v,向所有 Acceptor 廣播 Accept(b, v);3.2 否則,在所有收到的 “Promise(b, v_i)” 消息中,選擇 i 最大的 value v,向所有 Acceptor 廣播消息 Accept(b,v);

  4. 如果收到 Nack(B),將輪數 b 設置爲 B+1 後重新步驟 1;

流程:Accpetor 流程 (準備階段)

  1. 接受某個 Propeser 的消息 Prepare(b)。參數 B 是該 Acceptor 收到的最大 Paxos 輪數編號;V 是 Acceptor 批准的 value,可以爲空 1.1 如果 b>B,回覆 Promise(b, V_B),設置 B=b; 表示保證不再接受編號小於 b 的提案。1.2 否則,回覆 Reject(B) (批准階段)

  2. 接收 Accept(b, v), 2.1 如果 b < B, 回覆 Nack(B),暗示 proposer 有一個更大編號的提案被這個 Acceptor 接收了 2.2 否則設置 V=v。表示這個 Acceptor 批准的 Value 是 v。廣播 Accepted 消息。

例子

基本例子裏有 5 個 Acceptor,1 個 Proposer,不存在任何網絡、宕機異常。我們着重考察各個 Accpetor 上變量 B 和變量 V 的變化,及 Proposer 上變量 b 的變化。

  1. 初始狀態

  2. Proposer 向所有 Accpetor 發送 “Prepare(1)”,所有 Acceptor 正確處理,並回復 Promise(1, NULL

  3. Proposer 收到 5 個 Promise(1, NULL),滿足多餘半數的 Promise 的 value 爲空,此時發送 Accept(1, v1),其中 v1 是 Proposer 選擇的 Value。

  4. 此時,v1 被超過半數的 Acceptor 批准,v1 即是本次 Paxos 協議實例批准的 Value。如果 Learner 學習 value,學到的只能是 v1

在同一個 Paxos 實例中,批准的 Value 是無法改變的,即使後續 Proposer 以更高的序號發起 Paxos 協議也無法改變 value。Paxos 協議的核心就在於 “批准的 value 無法改變”,這也是整個協議正確性的基礎。

Paxos 協議是被人爲設計出來,其設計過程也是協議的推導過程。Paxos 協議利用了 Quorom 機 制,選擇的 W=R=N/2+1。

簡單而言,協議就是 Proposer 更新 Acceptor 的過程,一旦某個 Acceptor 成功更新了超過半數的 Acceptor,則更新成功。Learner 按 Quorum 去讀取 Acceptor,一旦某個 value 在超過半數的 Proposer 上被成功讀取,則說明這是一個被批准的 value。協議通過引入輪次,使得高輪次的提議搶佔低輪次的提議來避免死鎖。協議設計關鍵點是如何滿足 “在一次 Paxos 算法實例過程中只批准一個 Value” 這一約束條件。

2.9 CAP

CAP 理論的定義很簡單,CAP 三個字母分別代表了分佈式系統中三個相互矛盾的屬性:

CAP 理論指出:無法設計一種分佈式協議,使得同時完全具備 CAP 三個屬性,即 1) 該種協議下的副本始終是強一致性,2) 服務始終是可用的,3) 協議可以容忍任何網絡分區異常;分佈式系統協議只能在 CAP 這三者間所有折中。

熱力學第二定律說明了永動機是不可能存在的,不要去妄圖設計永動機。與之類似,CAP 理論的意義就在於明確提出了不要去妄圖設計一種對 CAP 三大屬性都完全擁有的完美系統,因爲這種系統在理論上就已經被證明不存在。

本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://mp.weixin.qq.com/s/jlGZrvmpN3D51YEzCBQ7HA