16 張圖喫透 Redis 架構演進全過程

現如今 Redis 變得越來越流行,幾乎在很多項目中都要被用到,不知道你在使用 Redis 時,有沒有思考過,Redis 到底是如何穩定、高性能地提供服務的?

你也可以嘗試回答一下以下這些問題:

如果你對 Redis 已經有些瞭解,肯定也聽說過數據持久化、主從複製、哨兵這些概念,它們之間又有什麼區別和聯繫呢?

如果你存在這樣的疑惑,這篇文章,我會從 0 到 1,再從 1 到 N,帶你一步步構建出一個穩定、高性能的 Redis 集羣。

在這個過程中,你可以瞭解到 Redis 爲了做到穩定、高性能,都採取了哪些優化方案,以及爲什麼要這麼做?

掌握了這些原理,這樣平時你在使用 Redis 時,就能夠做到「遊刃有餘」。

這篇文章乾貨很多,希望你可以耐心讀完。

從最簡單的開始:單機版 Redis

首先,我們從最簡單的場景開始。

假設現在你有一個業務應用,需要引入 Redis 來提高應用的性能,此時你可以選擇部署一個單機版的 Redis 來使用,就像這樣:

這個架構非常簡單,你的業務應用可以把 Redis 當做緩存來使用,從 MySQL 中查詢數據,然後寫入到 Redis 中,之後業務應用再從 Redis 中讀取這些數據,由於 Redis 的數據都存儲在內存中,所以這個速度飛快。

如果你的業務體量並不大,那這樣的架構模型基本可以滿足你的需求。是不是很簡單?

隨着時間的推移,你的業務體量逐漸發展起來了,Redis 中存儲的數據也越來越多,此時你的業務應用對 Redis 的依賴也越來越重。

但是,突然有一天,你的 Redis 因爲某些原因宕機了,這時你的所有業務流量,都會打到後端 MySQL 上,這會導致你的 MySQL 壓力劇增,嚴重的話甚至會壓垮 MySQL。

這時你應該怎麼辦?

我猜你的方案肯定是,趕緊重啓 Redis,讓它可以繼續提供服務。

但是,因爲之前 Redis 中的數據都在內存中,儘管你現在把 Redis 重啓了,之前的數據也都丟失了。重啓後的 Redis 雖然可以正常工作,但是由於 Redis 中沒有任何數據,業務流量還是都會打到後端 MySQL 上,MySQL 的壓力還是很大。

這可怎麼辦?你陷入了沉思。

有沒有什麼好的辦法解決這個問題?

既然 Redis 只把數據存儲在內存中,那是否可以把這些數據也寫一份到磁盤上呢?

如果採用這種方式,當 Redis 重啓時,我們把磁盤中的數據快速恢復到內存中,這樣它就可以繼續正常提供服務了。

是的,這是一個很好的解決方案,這個把內存數據寫到磁盤上的過程,就是「數據持久化」。

數據持久化:有備無患

現在,你設想的 Redis 數據持久化是這樣的:

但是,數據持久化具體應該怎麼做呢?

我猜你最容易想到的一個方案是,Redis 每一次執行寫操作,除了寫內存之外,同時也寫一份到磁盤上,就像這樣:

沒錯,這是最簡單直接的方案。

但仔細想一下,這個方案有個問題:客戶端的每次寫操作,既需要寫內存,又需要寫磁盤,而寫磁盤的耗時相比於寫內存來說,肯定要慢很多!這勢必會影響到 Redis 的性能。

如何規避這個問題?

我們可以這樣優化:Redis 寫內存由主線程來做,寫內存完成後就給客戶端返回結果,然後 Redis 用另一個線程去寫磁盤,這樣就可以避免主線程寫磁盤對性能的影響。

這確實是一個好方案。除此之外,我們可以換個角度,思考一下還有什麼方式可以持久化數據?

這時你就要結合 Redis 的使用場景來考慮了。

回憶一下,我們在使用 Redis 時,通常把它用作什麼場景?

是的,緩存。

把 Redis 當做緩存來用,意味着儘管 Redis 中沒有保存全量數據,對於不在緩存中的數據,我們的業務應用依舊可以通過查詢後端數據庫得到結果,只不過查詢後端數據的速度會慢一點而已,但對業務結果其實是沒有影響的。

基於這個特點,我們的 Redis 數據持久化還可以用「數據快照」的方式來做。

那什麼是數據快照呢?

簡單來講,你可以這麼理解:

  1. 你把 Redis 想象成一個水杯,向 Redis 寫入數據,就相當於往這個杯子裏倒水

  2. 此時你拿一個相機給這個水杯拍一張照片,拍照的這一瞬間,照片中記錄到這個水杯中水的容量,就是水杯的數據快照

也就是說,Redis 的數據快照,是記錄某一時刻下 Redis 中的數據,然後只需要把這個數據快照寫到磁盤上就可以了。

它的優勢在於,只在需要持久化時,把數據「一次性」寫入磁盤,其它時間都不需要操作磁盤。

基於這個方案,我們可以定時給 Redis 做數據快照,把數據持久化到磁盤上。

其實,上面說的這些持久化方案,就是 Redis 的「RDB」和「AOF」:

它們的區別除了上面講到的,還有以下特點:

  1. RDB 採用二進制 + 數據壓縮的方式寫磁盤,這樣文件體積小,數據恢復速度也快

  2. AOF 記錄的是每一次寫命令,數據最全,但文件體積大,數據恢復速度慢

如果讓你來選擇持久化方案,你可以這樣選擇:

  1. 如果你的業務對於數據丟失不敏感,採用 RDB 方案持久化數據

  2. 如果你的業務對數據完整性要求比較高,採用 AOF 方案持久化數據

假設你的業務對 Redis 數據完整性要求比較高,選擇了 AOF 方案,那此時你又會遇到這些問題:

  1. AOF 記錄每一次寫操作,隨着時間增長,AOF 文件體積會越來越大

  2. 這麼大的 AOF 文件,在數據恢復時變得非常慢

這怎麼辦?數據完整性要求變高了,恢復數據也變困難了?有沒有什麼方法,可以縮小文件體積?提升恢復速度呢?

我們繼續來分析 AOF 的特點。

由於 AOF 文件中記錄的都是每一次寫操作,但對於同一個 key 可能會發生多次修改,我們只保留最後一次被修改的值,是不是也可以?

是的,這就是我們經常聽到的「AOF rewrite」,你也可以把它理解爲 AOF 「瘦身」。

我們可以對 AOF 文件定時 rewrite,避免這個文件體積持續膨脹,這樣在恢復時就可以縮短恢復時間了。

再進一步思考一下,還有沒有辦法繼續縮小 AOF 文件?

回顧一下我們前面講到的,RDB 和 AOF 各自的特點:

  1. RDB 以二進制 + 數據壓縮方式存儲,文件體積小

  2. AOF 記錄每一次寫命令,數據最全

我們可否利用它們各自的優勢呢?

當然可以,這就是 Redis 的「混合持久化」。

具體來說,當 AOF rewrite 時,Redis 先以 RDB 格式在 AOF 文件中寫入一個數據快照,再把在這期間產生的每一個寫命令,追加到 AOF 文件中。因爲 RDB 是二進制壓縮寫入的,這樣 AOF 文件體積就變得更小了。

此時,你在使用 AOF 文件恢復數據時,這個恢復時間就會更短了!

Redis 4.0 以上版本才支持混合持久化。

這麼一番優化,你的 Redis 再也不用擔心實例宕機了,當發生宕機時,你就可以用持久化文件快速恢復 Redis 中的數據。

但這樣就沒問題了嗎?

仔細想一下,雖然我們已經把持久化的文件優化到最小了,但在恢復數據時依舊是需要時間的,在這期間你的業務應用還是會受到影響,這怎麼辦?

我們來分析有沒有更好的方案。

一個實例宕機,只能用恢復數據來解決,那我們是否可以部署多個 Redis 實例,然後讓這些實例數據保持實時同步,這樣當一個實例宕機時,我們在剩下的實例中選擇一個繼續提供服務就好了。

沒錯,這個方案就是接下來要講的「主從複製:多副本」。

主從複製:多副本

此時,你可以部署多個 Redis 實例,架構模型就變成了這樣:

我們這裏把實時讀寫的節點叫做 master,另一個實時同步數據的節點叫做 slave。

採用多副本的方案,它的優勢是:

  1. 縮短不可用時間:master 發生宕機,我們可以手動把 slave 提升爲 master 繼續提供服務

  2. 提升讀性能:讓 slave 分擔一部分讀請求,提升應用的整體性能

這個方案不錯,不僅節省了數據恢復的時間,還能提升性能,那它有什麼問題嗎?

你可以思考一下。

其實,它的問題在於:當 master 宕機時,我們需要「手動」把 slave 提升爲 master,這個過程也是需要花費時間的。

雖然比恢復數據要快得多,但還是需要人工介入處理。一旦需要人工介入,就必須要算上人的反應時間、操作時間,所以,在這期間你的業務應用依舊會受到影響。

怎麼解決這個問題?我們是否可以把這個切換的過程,變成自動化呢?

對於這種情況,我們需要一個「故障自動切換」機制,這就是我們經常聽到的「哨兵」所具備的能力。

哨兵:故障自動切換

現在,我們可以引入一個「觀察者」,讓這個觀察者去實時監測 master 的健康狀態,這個觀察者就是「哨兵」。

具體如何做?

  1. 哨兵每間隔一段時間,詢問 master 是否正常

  2. master 正常回復,表示狀態正常,回覆超時表示異常

  3. 哨兵發現異常,發起主從切換

有了這個方案,就不需要人去介入處理了,一切就變得自動化了,是不是很爽?

但這裏還有一個問題,如果 master 狀態正常,但這個哨兵在詢問 master 時,它們之間的網絡發生了問題,那這個哨兵可能會誤判。

這個問題怎麼解決?

答案是,我們可以部署多個哨兵,讓它們分佈在不同的機器上,它們一起監測 master 的狀態,流程就變成了這樣:

  1. 多個哨兵每間隔一段時間,詢問 master 是否正常

  2. master 正常回復,表示狀態正常,回覆超時表示異常

  3. 一旦有一個哨兵判定 master 異常(不管是否是網絡問題),就詢問其它哨兵,如果多個哨兵(設置一個閾值)都認爲 master 異常了,這才判定 master 確實發生了故障

  4. 多個哨兵經過協商後,判定 master 故障,則發起主從切換

所以,我們用多個哨兵互相協商來判定 master 的狀態,這樣一來,就可以大大降低誤判的概率。

哨兵協商判定 master 異常後,這裏還有一個問題:由哪個哨兵來發起主從切換呢?

答案是,選出一個哨兵「領導者」,由這個領導者進行主從切換。

問題又來了,這個領導者怎麼選?

想象一下,在現實生活中,選舉是怎麼做的?

是的,投票。

在選舉哨兵領導者時,我們可以制定這樣一個選舉規則:

  1. 每個哨兵都詢問其它哨兵,請求對方爲自己投票

  2. 每個哨兵只投票給第一個請求投票的哨兵,且只能投票一次

  3. 首先拿到超過半數投票的哨兵,當選爲領導者,發起主從切換

其實,這個選舉的過程就是我們經常聽到的:分佈式系統領域中的「共識算法」。

什麼是共識算法?

我們在多個機器部署哨兵,它們需要共同協作完成一項任務,所以它們就組成了一個「分佈式系統」。

在分佈式系統領域,多個節點如何就一個問題達成共識的算法,就叫共識算法。

在這個場景下,多個哨兵共同協商,選舉出一個都認可的領導者,就是使用共識算法完成的。

這個算法還規定節點的數量必須是奇數個,這樣可以保證系統中即使有節點發生了故障,剩餘超過「半數」的節點狀態正常,依舊可以提供正確的結果,也就是說,這個算法還兼容了存在故障節點的情況。

共識算法在分佈式系統領域有很多,例如 Paxos、Raft,哨兵選舉領導者這個場景,使用的是 Raft 共識算法,因爲它足夠簡單,且易於實現。

現在,我們用多個哨兵共同監測 Redis 的狀態,這樣一來,就可以避免誤判的問題了,架構模型就變成了這樣:

好了,到這裏我們先小結一下。

你的 Redis 從最簡單的單機版,經過數據持久化、主從多副本、哨兵集羣,這一路優化下來,你的 Redis 不管是性能還是穩定性,都越來越高,就算節點發生故障,也不用擔心了。

你的 Redis 以這樣的架構模式部署,基本上就可以穩定運行很長時間了。

...

隨着時間的發展,你的業務體量開始迎來了爆炸性增長,此時你的架構模型,還能夠承擔這麼大的流量嗎?

我們一起來分析一下:

  1. 穩定性:Redis 故障宕機,我們有哨兵 + 副本,可以自動完成主從切換

  2. 性能:讀請求量增長,我們可以再部署多個 slave,讀寫分離,分擔讀壓力

  3. 性能:寫請求量增長,但我們只有一個 master 實例,這個實例達到瓶頸怎麼辦?

看到了麼,當你的寫請求量越來越大時,一個 master 實例可能就無法承擔這麼大的寫流量了。

要想完美解決這個問題,此時你就需要考慮使用「分片集羣」了。

分片集羣:橫向擴展

什麼是「分片集羣」?

簡單來講,一個實例扛不住寫壓力,那我們是否可以部署多個實例,然後把這些實例按照一定規則組織起來,把它們當成一個整體,對外提供服務,這樣不就可以解決集中寫一個實例的瓶頸問題嗎?

所以,現在的架構模型就變成了這樣:

現在問題又來了,這麼多實例如何組織呢?

我們制定規則如下:

  1. 每個節點各自存儲一部分數據,所有節點數據之和纔是全量數據

  2. 制定一個路由規則,對於不同的 key,把它路由到固定一個實例上進行讀寫

而分片集羣根據路由規則所在位置的不同,還可以分爲兩大類:

  1. 客戶端分片

  2. 服務端分片

客戶端分片指的是,key 的路由規則放在客戶端來做,就是下面這樣:

這個方案的缺點是,客戶端需要維護這個路由規則,也就是說,你需要把路由規則寫到你的業務代碼中。

如何做到不把路由規則耦合在業務代碼中呢?

你可以這樣優化,把這個路由規則封裝成一個模塊,當需要使用時,集成這個模塊就可以了。

這就是 Redis Cluster 的採用的方案。

Redis Cluster 內置了哨兵邏輯,無需再部署哨兵。

當你使用 Redis Cluster 時,你的業務應用需要使用配套的 Redis SDK,這個 SDK 內就集成好了路由規則,不需要你自己編寫了。

再來看服務端分片。

這種方案指的是,路由規則不放在客戶端來做,而是在客戶端和服務端之間增加一個「中間代理層」,這個代理就是我們經常聽到的 Proxy。

而數據的路由規則,就放在這個 Proxy 層來維護。

這樣一來,你就無需關心服務端有多少個 Redis 節點了,只需要和這個 Proxy 交互即可。

Proxy 會把你的請求根據路由規則,轉發到對應的 Redis 節點上,而且,當集羣實例不足以支撐更大的流量請求時,還可以橫向擴容,添加新的 Redis 實例提升性能,這一切對於你的客戶端來說,都是透明無感知的。

業界開源的 Redis 分片集羣方案,例如 Twemproxy、Codis 就是採用的這種方案。

分片集羣在數據擴容時,還涉及到了很多細節,這塊內容不是本文章重點,所以暫不詳述。

至此,當你使用分片集羣后,對於未來更大的流量壓力,都可以從容面對了!

總結

好了,我們來總結一下,我們是如何一步步構建一個穩定、高性能的 Redis 集羣的。

首先,在使用最簡單的單機版 Redis 時,我們發現當 Redis 故障宕機後,數據無法恢復的問題,因此我們想到了「數據持久化」,把內存中的數據也持久化到磁盤上一份,這樣 Redis 重啓後就可以從磁盤上快速恢復數據。

在進行數據持久化時,我們又面臨如何更高效地將數據持久化到磁盤的問題。之後我們發現 Redis 提供了 RDB 和 AOF 兩種方案,分別對應了數據快照和實時的命令記錄。當我們對數據完整性要求不高時,可以選擇 RDB 持久化方案。如果對於數據完整性要求較高,那麼可以選擇 AOF 持久化方案。

但是我們又發現,AOF 文件體積會隨着時間增長變得越來越大,此時我們想到的優化方案是,使用 AOF rewrite 的方式對其進行瘦身,減小文件體積,再後來,我們發現可以結合 RDB 和 AOF 各自的優勢,在 AOF rewrite 時使用兩者結合的「混合持久化」方式,又進一步減小了 AOF 文件體積。

之後,我們發現儘管可以通過數據恢復的方式還原數據,但恢復數據也是需要花費時間的,這意味着業務應用還是會受到影響。我們進一步優化,採用「多副本」的方案,讓多個實例保持實時同步,當一個實例故障時,可以手動把其它實例提升上來繼續提供服務。

但是這樣也有問題,手動提升實例上來,需要人工介入,人工介入操作也需要時間,我們開始想辦法把這個流程變得自動化,所以我們又引入了「哨兵」集羣,哨兵集羣通過互相協商的方式,發現故障節點,並可以自動完成切換,這樣就大幅降低了對業務應用的影響。

最後,我們把關注點聚焦在如何支撐更大的寫流量上,所以,我們又引入了「分片集羣」來解決這個問題,讓多個 Redis 實例分攤寫壓力,未來面對更大的流量,我們還可以添加新的實例,橫向擴展,進一步提升集羣的性能。

至此,我們的 Redis 集羣才得以長期穩定、高性能的爲我們的業務提供服務。

這裏我畫了一個思維導圖,方便你更好地去理解它們之間的關係,以及演化的過程。

後記

看到這裏,我想你對如何構建一個穩定、高性能的 Redis 集羣問題時,應該會有自己的見解了。

其實,這篇文章所講的優化思路,圍繞的主題就是「架構設計」的核心思想:

當我們講到哨兵集羣、分片集羣時,這還涉及到了「分佈式系統」相關的知識:

當然,除了 Redis 之外,對於構建任何一個數據集羣,你都可以沿用這個思路去思考、去優化,看看它們到底是如何做的。

例如當你在使用 MySQL 時,你可以思考一下 MySQL 與 Redis 有哪些不同?MySQL 爲了做到高性能、高可用,又是如何做的?其實思路都是類似的。

我們現在到處可見分佈式系統、數據集羣,我希望通過這篇文章,你可以理解這些軟件是如何一步步演化過來的,在演化過程中,它們遇到了哪些問題,爲了解決這些問題,這些軟件的設計者設計了怎樣的方案,做了哪些取捨?

你只有瞭解了其中的原理,掌握了分析問題、解決問題的能力,這樣在以後的開發過程中,或是學習其它優秀軟件時,就能快速地找到「重點」,在最短的時間掌握它,並能在實際應用中發揮它們的優勢。

其實這個思考過程,也是做「架構設計」的思路。在做軟件架構設計時,你面臨的場景就是發現問題、分析問題、解決問題,一步步去演化、升級你的架構,最後在性能、可靠性方面達到一個平衡。雖然各種軟件層出不窮,但架構設計的思想不會變,我希望你真正吸收的是這些思想,這樣纔可以做到以不變應萬變。

本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://mp.weixin.qq.com/s/xzXD6IPVbl8cb8spUZoK5g