SpringCloud 常見註冊中心的比較
一、概述
springcloud 是一個非常優秀的微服務框架,要管理衆多的服務,就需要對這些服務進行治理,也就是我們說的服務治理
,服務治理
的作用就是在傳統的 rpc 遠程調用框架中,管理每個服務與每個服務之間的依賴關係,可以實現服務調用、負載均衡、服務容錯、以及服務的註冊與發現。
如果微服務之間存在調用依賴,就需要得到目標服務的服務地址,也就是微服務治理的服務發現
。要完成服務發現,就需要將服務信息存儲到某個載體,載體本身即是微服務治理的服務註冊中心
,而存儲到載體的動作即是服務註冊
。
springcloud 支持的註冊中心有Eureka
、Zookeeper
、Consul
、Nacos
1.1 eureka
Spring Cloud Netflix 在設計 Eureka 時就緊遵 AP 原則, Eureka Server 也可以運行多個實例來構建集羣,解決單點問題,但不同於 ZooKeeper 的選舉 leader 的過程,Eureka Server 採用的是 Peer to Peer 對等通信。這是一種去中心化的架構,無 master/slave 之分,每一個 Peer 都是對等的。在這種架構風格中,節點通過彼此互相註冊來提高可用性,每個節點需要添加一個或多個有效的 serviceUrl 指向其他節點。每個節點都可被視爲其他節點的副本。
在集羣環境中如果某臺 Eureka Server 宕機,Eureka Client 的請求會自動切換到新的 Eureka Server 節點上,當宕機的服務器重新恢復後,Eureka 會再次將其納入到服務器集羣管理之中。當節點開始接受客戶端請求時,所有的操作都會在節點間進行復制(replicate To Peer)操作,將請求複製到該 Eureka Server 當前所知的其它所有節點中。
Eureka 的集羣中,只要有一臺 Eureka 還在,就能保證註冊服務可用(保證可用性),只不過查到的信息可能不是最新的(不保證強一致性)。除此之外,Eureka 還有一種自我保護機制,如果在 15 分鐘內超過 85% 的節點都沒有正常的心跳,那麼 Eureka 就認爲客戶端與註冊中心出現了網絡故障,此時會出現以下幾種情況:
-
Eureka 不再從註冊表中移除因爲長時間沒有收到心跳而過期的服務;
-
Eureka 仍然能夠接受新服務註冊和查詢請求,但是不會被同步到其它節點上(即保證當前節點依然可用);
-
當網絡穩定時,當前實例新註冊的信息會被同步到其它節點中;
因此,Eureka 可以很好的應對因網絡故障導致部分節點失去聯繫的情況,而不會像 zookeeper 那樣使得整個註冊服務癱瘓
Eureka 保證高可用 (A) 和最終一致性:
服務註冊相對要快,因爲不需要等註冊信息 replicate 到其他節點,也不保證註冊信息是否 replicate 成功
當數據出現不一致時,雖然 A, B 上的註冊信息不完全相同,但每個 Eureka 節點依然能夠正常對外提供服務,這會出現查詢服務信息時如果請求 A 查不到,但請求 B 就能查到。如此保證了可用性但犧牲了一致性。
1.2 zookeeper
與 Eureka 有所不同,Apache Zookeeper 在設計時就緊遵 CP 原則,即任何時候對 Zookeeper 的訪問請求能得到一致的數據結果,同時系統對網絡分割具備容錯性,但是 Zookeeper 不能保證每次服務請求都是可達的。從 Zookeeper 的實際應用情況來看,在使用 Zookeeper 獲取服務列表時,如果此時的 Zookeeper 集羣中的 Leader 宕機了,該集羣就要進行 Leader 的選舉,又或者 Zookeeper 集羣中半數以上服務器節點不可用(例如有三個節點,如果節點一檢測到節點三掛了 ,節點二也檢測到節點三掛了,那這個節點纔算是真的掛了),那麼將無法處理該請求。所以說,Zookeeper 不能保證服務可用性。
1.3 consul
Consul 是 HashiCorp 公司推出的開源工具,用於實現分佈式系統的服務發現與配置。Consul 使用 Go 語言編寫,因此具有天然可移植性(支持 Linux、windows 和 Mac OS X)。Consul 內置了服務註冊與發現框架、分佈一致性協議實現、健康檢查、Key/Value 存儲、多數據中心方案,不再需要依賴其他工具(比如 ZooKeeper 等),使用起來也較爲簡單。
Consul 遵循 CAP 原理中的 CP 原則,保證了強一致性和分區容錯性,且使用的是 Raft 算法,比 zookeeper 使用的 Paxos 算法更加簡單。雖然保證了強一致性,但是可用性就相應下降了,例如服務註冊的時間會稍長一些,因爲 Consul 的 raft 協議要求必須過半數的節點都寫入成功才認爲註冊成功 ;在 leader 掛掉了之後,重新選舉出 leader 之前會導致 Consul 服務不可用。
Consul 強一致性 (C) 帶來的是:
服務註冊相比 Eureka 會稍慢一些。因爲 Consul 的 raft 協議要求必須過半數的節點都寫入成功才認爲註冊成功
Leader 掛掉時,重新選舉期間整個 consul 不可用。保證了強一致性但犧牲了可用性。
1.4 Nacos
Nacos 是阿里開源的,Nacos 支持基於 DNS 和基於 RPC 的服務發現。Nacos 除了服務的註冊發現之外,還支持動態配置服務。動態配置服務可以讓您以中心化、外部化和動態化的方式管理所有環境的應用配置和服務配置。動態配置消除了配置變更時重新部署應用和服務的需要,讓配置管理變得更加高效和敏捷。配置中心化管理讓實現無狀態服務變得更簡單,讓服務按需彈性擴展變得更容易。一句話概括就是 Nacos = 註冊中心 + 配置中心。
二、功能異同
這四個組件雖然都實現了註冊中心的功能,但是他們的功能和實現方式都有不同的地方,也各有各的優點, 單從註冊中心方面來比價四個註冊中心 (如果不瞭解CAP定理
可先閱讀下一章節):
2.1 基本實現不同
官網地址
eureka: https://github.com/Netflix/eureka
zookeeper: https://zookeeper.apache.org/
consul: https://www.consul.io/
nacos: https://nacos.io/zh-cn/
eureka 就是個 servlet 程序,跑在 servlet 容器中; Consul 則是 go 編寫而成。
2.2 功能支持度不同
三、CAP 定理
cap 定理
CAP 原則又稱 CAP 定理,指的是在一個分佈式系統中,一致性(Consistency)、可用性(Availability)、分區容錯性(Partition tolerance)。CAP 原則指的是,這三個要素最多隻能同時實現兩點,不可能三者兼顧。參考 阮一峯博客。
-
Consistency 一致性
: 所有數據備份,在同一時刻是否同樣的值。(等同於所有節點訪問同一份最新的數據副本) -
Availability 可用性
: 在集羣中一部分節點故障後,集羣整體是否還能響應客戶端的讀寫請求。(對數據更新具備高可用性) -
Partition Tolerance 容錯性
: 以實際效果而言,分區相當於對通信的時限要求。系統如果不能在時限內達成數據一致性,就意味着發生了分區的情況,必須就當前操作在 C 和 A 之間做出選擇。
CAP 原則的精髓就是要麼 AP,要麼 CP,要麼 AC,但是不存在 CAP。如果在某個分佈式系統中數據無副本, 那麼系統必然滿足強一致性條件, 因爲只有獨一數據,不會出現數據不一致的情況,此時 C 和 P 兩要素具備,但是如果系統發生了網絡分區狀況或者宕機,必然導致某些數據不可以訪問,此時可用性條件就不能被滿足,即在此情況下獲得了 CP 系統,但是 CAP 不可同時滿足。
因此在進行分佈式架構設計時,必須做出取捨。當前一般是通過分佈式緩存中各節點的最終一致性來提高系統的性能,通過使用多節點之間的數據異步複製技術來實現集羣化的數據一致性。通常使用類似 memcached 之類的 NOSQL 作爲實現手段。雖然 memcached 也可以是分佈式集羣環境的,但是對於一份數據來說,它總是存儲在某一臺 memcached 服務器上。如果發生網絡故障或是服務器死機,則存儲在這臺服務器上的所有數據都將不可訪問。由於數據是存儲在內存中的,重啓服務器,將導致數據全部丟失。當然也可以自己實現一套機制,用來在分佈式 memcached 之間進行數據的同步和持久化,但是實現難度是非常大的
CAP 定理關注的粒度是數據,而不是整體的架構。
例如,根據 CAP 定理將 NoSql 數據分成了滿足 CA 原則、滿足 CP 原則和滿足 AP 原則的三大類:
-
CA
- 單點集羣,滿足一致性可用性的系統,擴展能力不強 -
CP
- 滿足一致性和容錯性系統,性能不高 -
AP
- 滿足可用性、容錯性的系統,對一致性要求低一些。
本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源:https://mp.weixin.qq.com/s/Q6ET1eTWewRPu-pG3pNTag