Redis 高可用之 Sentinel
Sentinel 結構
在 redis3.0 以前的版本要實現集羣一般是藉助哨兵 sentinel 工具來監控 master 節點的狀態,如果 master 節點異常,則會做主從切換,將某一臺 slave 作爲 master,哨兵的配置略微複雜,並且性能和高可用性等各方面表現一般,特別是在主從切換的瞬間存在訪問瞬斷的情況,而且哨兵模式只有一個主節點對外提供服務,沒法支持很高的併發,且單個主節點內存也不宜設置得過大,否則會導致持久化文件過大,影響數據恢復或主從同步的效率。
Sentinel 初始化
Sentinel(哨兵)是 Redis 高可用(high availability) 解決方案,由一個或者多個 Sentinel 實例(instance)組成的 Sentinel 系統(system)可以監視一個或者多個 Redis 主服務器和其跟隨的從服務器,並且在被監視的主服務進入下線狀態時,自動進行將當前主服務器的從服務器其中一個升級爲主服務器,然後將下線的主服務器設置爲新主服務器的從節點。
Sentinel 本身我們可以理解爲一個特殊的 Redis 服務器, 它也可以通過 redis-server xxx.conf --sentinel
啓動。
下面是我們實驗環境的一個 Sentinel 服務器和 Redis 服務器列表(由於實驗都在本機進行,我們採用端口的方式來區分多個服務),服務和端口大致如下:
首先我們找到 Redis 的配置文件目錄,修改 redis-sentinel.conf
文件中的以下參數:
# sentinel 端口
port 26381
# 後臺運行
daemonize yes
# 監控主服務器和有一個 slave 節點
sentinel monitor mymaster 127.0.0.1 6379 2
Sentinel 啓動命令如下:
redis-server redis-sentinel-26379.conf --sentinel
redis-server redis-sentinel-26380.conf --sentinel
redis-server redis-sentinel-26381.conf --sentinel
登錄到 Sentinel 節點, 查詢集羣狀態, 使用 info
命令即可
Sentinel 和 Redis 服務之間的通訊
- 命令連接,建立一個鏈接接收主 / 從服務器的回覆 (默認 10 秒一次發送請求 info 信息獲取節點狀態,故障轉移的時候會變爲 1 秒一次。並且每一秒向服務器節點發一個 PING 命令判斷服務是否在線)
- 訂閱鏈接,用於訂閱主服務器的 **sentinel**:hello 頻道
我們先驗證一下在主節點上查詢,執行 SUBSCRIBE __sentinel__:hello
INFO
命令來查詢
Sentinel 之間通訊
-
對於監視同一個主 / 從服務器的多個 Sentinel 節點,他們會以每兩秒一次的頻率,向被監視的服務器的 **sentinel**:hello 頻道發送消息來宣告自己存在。
-
Sentinel 之間不會創建訂閱鏈接,通過命令通訊。因爲已經可以通過主 / 從服務器獲取未知的 Sentinel 服務節點。
Sentinel 獲取 Redis 節點列表
** Sentinel 會默認 10 秒一次向主服務器信息**,通過**發送 info 命令 **,的回覆來獲取當前主服務器的信息。
# Server
run_id:5e4d6e3ee147ff231d540ae2add485e906944f2a
...
# Replication
role:master
connected_slaves:2
slave0:ip=127.0.0.1,port=6381,state=online,offset=2712947,lag=0
slave1:ip=127.0.0.1,port=6380,state=online,offset=2712947,lag=0
master_replid:f2163cc41b43c20998a54c14647ba5b106dc4677
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:2713213
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1664638
repl_backlog_histlen:1048576
....
通過分析主服務器的 info 命令可以獲取到以下兩方面的信息:
-
關於服務器本身的信息,包括 run_id 記錄服務器運行的 id, 以及服務器 role 角色等。
-
另外一方面就是獲取主服務器下面的所有從服務器信息,比如:
slave0:ip=127.0.0.1,port=6381,state=online,offset=2712947,lag=0
這樣就不需要我們在 conf 文件中配置從服務器的信息,Sentinel 可以自動發現。
當 Sentinel 從主服務器獲取到從服務器信息過後,也會 10 秒鐘向從服務器發送 INFO 命令來獲取從服務器信息 我們可以執行命令 redis-cli -h 127.0.0.1 -p 6380 info
得到以下信息
# Server
run_id:7ef635af0d3e0b1d60d2776eba0a15883db06245
...
# Replication
role:slave
master_host:127.0.0.1
master_port:6379
master_link_status:up
master_last_io_seconds_ago:0
master_sync_in_progress:0
slave_repl_offset:2779874
slave_priority:100
slave_read_only:1
connected_slaves:0
master_replid:f2163cc41b43c20998a54c14647ba5b106dc4677
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:2779874
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1731299
repl_backlog_histlen:1048576
...
我們從結果中可以得到以下信息:
-
服務器的運行 Id run_id
-
服務器的角色 role
-
主服務器的信息
master_host
,master_port
-
主從服務器的連接狀態
master_link_status
-
從服務器的優先級
slave_priority
-
從服務器的複製偏移量
slave_repl_offset
服務下線
主觀下線:一臺 sentinel 判斷下線 客觀下線:主觀下線後會詢問其他的 sentinel 節點判斷是否該主節點下線,如果是真的下線了,那麼就是客觀下線。
判斷下線的方式
sentinel 配置文件中 down-after-millseconds
選項制定了 sentinel 實例進入主觀下線所需的時間;如果一個實例在 down-after-millseconds
毫秒內,連續向 Sentinel 返回無效回覆,那麼 Sentinel 會修改這個實例所對應的實例結構,在結構的 flags 屬性中打開 SIR_S_DOWN 標示,來表示這個實例主觀下線。當超過一半的哨兵節監測到一個 redis 節點下線後此刻在該集羣中該節點纔算真正被判斷爲下線,也叫客觀下線
選舉領頭 sentinel
當發生 master 節點客觀下線後,會進行 sentinel 選舉,進行選舉出領頭 sentinel 對 redis sentinel 集羣做故障轉移。領頭 sentinel 選舉規則:
-
所有在線的 sentinel 都具有選舉資格。
-
每次選舉後,不管是否選舉成功,sentinel 配置紀元(configuration epoch)都會自增一次
-
每個配置紀元裏面都有一次將某個 sentinel 設置爲局部領頭 sentinel 的機會,且局部領頭 sentinel 一旦設置當前配置紀元裏面不可修改
-
每個發現主服務器客觀下線的 sentinel 都會要求其他的 sentinel 將自己設置爲局部的 領頭 sentinel
-
sentinel 局部領頭 sentinel 的規則是先到先的,最先向目標 sentinel 發送設置要求的 sentinel 先設置成功,之後的都會被拒絕
-
如果某個 sentinel 被半數以上的 sentinel 設置成了局部領頭 sentinel ,那麼這個 sentinel 就成爲領頭 sentinel
-
因爲領頭 sentinel 產生需要半數的 sentinel 的支持,並且每個配置紀元裏面只能設置一次 領頭 sentinel , 所以只會出現一個領頭 sentinel
-
如果在指定的時間內沒有產生領頭 sentinel 那麼就會進行再次選舉,直到選出領頭 sentinel 爲止。
故障轉移
故障轉移分爲三個步驟:
-
在已經下線的主服務器下的所有服務器裏中,選擇一個從服務器,將器作爲主服務器。
-
讓已經下線的主服務器下的所有從服務器複製新的主服務器。
-
將已經下線的主服務器設置爲新主服務器的從服務器,當這個舊的主服務器重新上線後它就會成爲新的主服務器的從服務器。
選擇新主服務器
對從服務器進行過濾
-
刪除處於下線的從服務器,保證都是正常在線的
-
刪除列表中所有 5 秒沒有回覆過 sentinle leader 的 info 命令的服務器,可以保證列表中剩餘的從服務器通訊正常
-
保證從服務器的數據是最新的,主要是刪除與主服務器斷開鏈接超過 down-after-millseconds * 10 毫秒的服務器。保證沒有過早的斷開鏈接
-
最後按照上面的篩選過後,進行排序,選擇其中優先級最高的。
1) 如果存在多個相同優先級的,考慮偏移量 (slave_repl_offset) 最大的從服務器,因爲偏移量最大說明保存的數據是最新的
2) 如果還是存在相同的偏移量的從服務器,那麼就選擇運行 id(run_id) 最小的從服務器
發生故障轉移後 Server2 升級爲主服務器
修改從服務器的複製目標
當新的主服務器出現後 ,領頭的 Sentinel 會讓其他的服務器節點,去複製新的主節點的數據可以通過向從服務器發送 saveof
命令來實現。
將舊的主服務器變成從服務器
故障轉移的最後操作,就是將已經下線的的主服務器設置爲新的主服務的從服務器。
公衆號:運維開發故事
github:https://github.com/orgs/sunsharing-note/dashboard
愛生活,愛運維
本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源:https://mp.weixin.qq.com/s/2fMO4HXMywZFWmKhBdVgdw