Docker 簡易搭建 ElasticSearch 集羣教程
寫在前面:爲什麼要用 ElasticSearch?
我們的應用經常需要添加檢索功能,開源的 Elastic Search 是目前全文檢索引擎的首選。它可以快速的存儲、搜索和分析海量數據。ElasticSearch 是一個分佈式搜索框架,提供 RestfulAPI,底層基於 Lucene,採用多 shard(分片)的方式保證數據安全,並且提供自動 resharding 的功能。
Elasticsearch: 權威指南 (中文):
https://www.elastic.co/guide/cn/elasticsearch/guide/current/index.html
一、拉取 ElasticSearch 鏡像
在 centos 窗口中,執行如下命令:
docker pull elasticsearch:5.6.8
當前 ES 鏡像版本信息:
{
"name" : "WlwFyqU",
"cluster_name" : "elasticsearch",
"cluster_uuid" : "78UDZtviQqiWmzmenGpSrQ",
"version" : {
"number" : "5.6.8",
"build_hash" : "cfe3d9f",
"build_date" : "2018-09-10T20:12:43.732Z",
"build_snapshot" : false,
"lucene_version" : "6.6.1"
},
"tagline" : "You Know, for Search"
}
二、創建數據掛在目錄,以及配置 ElasticSearch 集羣配置文件,調高 JVM 線程數限制數量
1. 創建數據文件掛載目錄, 並開放通信端口
在 centos 窗口中,執行如下操作:
[root@localhost soft]# pwd
/home/soft
[root@localhost soft]# mkdir -p ES/config
[root@localhost soft]# cd ES
[root@localhost ES]# mkdir data1
[root@localhost ES]# mkdir data2
[root@localhost ES]# mkdir data3
[root@localhost ES]# cd ES/config/
[root@localhost ES]# firewall-cmd --add-port=9300/tcp
success
[root@localhost ES]# firewall-cmd --add-port=9301/tcp
success
[root@localhost ES]# firewall-cmd --add-port=9302/tcp
success
注:如果 ELK 選的 6.X 版本的,那麼讀者需將 data1 data2 data3 開啓 777 權限 => chmod 777 data1 data2 data3
2. 創建 ElasticSearch 配置文件
在 centos 窗口中,使用 vim 命令分別創建如下文件:es1.yml,es2.yml,es3.yml
es1.yml
cluster.name: elasticsearch-cluster
node.name: es-node1
network.bind_host: 0.0.0.0
network.publish_host: 192.168.9.219
http.port: 9200
transport.tcp.port: 9300
http.cors.enabled: true
http.cors.allow-origin: "*"
node.master: true
node.data: true
discovery.zen.ping.unicast.hosts: ["192.168.9.219:9300","192.168.9.219:9301","192.168.9.219:9302"]
discovery.zen.minimum_master_nodes: 2
es2.yml
cluster.name: elasticsearch-cluster
node.name: es-node2
network.bind_host: 0.0.0.0
network.publish_host: 192.168.9.219
http.port: 9201
transport.tcp.port: 9301
http.cors.enabled: true
http.cors.allow-origin: "*"
node.master: true
node.data: true
discovery.zen.ping.unicast.hosts: ["192.168.9.219:9300","192.168.9.219:9301","192.168.9.219:9302"]
discovery.zen.minimum_master_nodes: 2
es3.yml
cluster.name: elasticsearch-cluster
node.name: es-node3
network.bind_host: 0.0.0.0
network.publish_host: 192.168.9.219
http.port: 9202
transport.tcp.port: 9302
http.cors.enabled: true
http.cors.allow-origin: "*"
node.master: true
node.data: true
discovery.zen.ping.unicast.hosts: ["192.168.9.219:9300","192.168.9.219:9301","192.168.9.219:9302"]
discovery.zen.minimum_master_nodes: 2
注:本機虛擬機 ip:192.168.9.219 讀者請自行更改
3. 調高 JVM 線程數限制數量
在 centos 窗口中,修改配置 sysctl.conf
vim /etc/sysctl.conf
加入如下內容:
vm.max_map_count=262144
啓用配置:
sysctl -p
注:這一步是爲了防止啓動容器時,報出如下錯誤:
bootstrap checks failed max virtual memory areas vm.max_map_count [65530] likely too low, increase to at least [262144]
三、啓動 ElasticSearch 集羣容器
啓動 ElasticSearch 集羣容器
在 centos 窗口中,執行如下命令:
docker run -e ES_JAVA_OPTS="-Xms256m -Xmx256m" -d -p 9200:9200 -p 9300:9300 -v /home/soft/ES/config/es1.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /home/soft/ES/data1:/usr/share/elasticsearch/data --name ES01 elasticsearch:5.6.8
docker run -e ES_JAVA_OPTS="-Xms256m -Xmx256m" -d -p 9201:9201 -p 9301:9301 -v /home/soft/ES/config/es2.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /home/soft/ES/data2:/usr/share/elasticsearch/data --name ES02 elasticsearch:5.6.8
docker run -e ES_JAVA_OPTS="-Xms256m -Xmx256m" -d -p 9202:9202 -p 9302:9302 -v /home/soft/ES/config/es3.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /home/soft/ES/data3:/usr/share/elasticsearch/data --name ES03 elasticsearch:5.6.8
注:設置
-e ES_JAVA_OPTS="-Xms256m -Xmx256m"
是因爲/etc/elasticsearch/jvm.options
默認 jvm 最大最小內存是 2G,讀者啓動容器後 可用docker stats
命令查看
四、驗證是否搭建成功
1. 在瀏覽器地址欄訪問http://192.168.9.219:9200/_cat/nodes?pretty
查看節點狀態
注:節點名稱帶表示爲主節點 *
2. 使用 elasticsearch-head 前端框架
- 拉取鏡像
docker pull mobz/elasticsearch-head:5
- 啓動容器
docker run -d -p 9100:9100 --name es-manager mobz/elasticsearch-head:5
- 瀏覽器訪問 http://192.168.9.219:9100/
寫在最後,這裏要多提一點索引分片設置以及副本,官方推薦設置,讀者根據自身需要進行修改:
curl -XPUT ‘http://localhost:9200/_all/_settings?preserve_existing=true’ -d ‘{undefined
“index.number_of_replicas” : “1”,
“index.number_of_shards” : “10”
}’
附錄
- 查看容器內存
docker stats $(docker ps --format={{.Names}})
- 查看容器日誌
docker logs 容器名/容器ID
- ElasticSearch 配置文件說明
cluster.name: elasticsearch-cluster
node.name: es-node1
#index.number_of_shards: 2
#index.number_of_replicas: 1
network.bind_host: 0.0.0.0
network.publish_host: 192.168.9.219
http.port: 9200
transport.tcp.port: 9300
http.cors.enabled: true
http.cors.allow-origin: "*"
node.master: true
node.data: true
discovery.zen.ping.unicast.hosts: ["es-node1:9300","es-node2:9301","es-node3:9302"]
discovery.zen.minimum_master_nodes: 2
注:
-
cluster.name
:用於唯一標識一個集羣,不同的集羣,其 cluster.name 不同,集羣名字相同的所有節點自動組成一個集羣。如果不配置改屬性,默認值是:elasticsearch。 -
node.name
:節點名,默認隨機指定一個 name 列表中名字。集羣中 node 名字不能重複 -
index.number_of_shards
: 默認的配置是把索引分爲 5 個分片 -
index.number_of_replicas
: 設置每個 index 的默認的冗餘備份的分片數,默認是 1
通過 index.number_of_shards,index.number_of_replicas 默認設置索引將分爲 5 個分片,每個分片 1 個副本,共 10 個結點。
禁用索引的分佈式特性,使索引只創建在本地主機上:
-
index.number_of_shards: 1
-
index.number_of_replicas: 0
但隨着版本的升級 將不在配置文件中配置而實啓動 ES 後,再進行配置
-
bootstrap.memory_lock
: true 當 JVM 做分頁切換(swapping)時,ElasticSearch 執行的效率會降低,推薦把 ES_MIN_MEM 和 ES_MAX_MEM 兩個環境變量設置成同一個值,並且保證機器有足夠的物理內存分配給 ES,同時允許 ElasticSearch 進程鎖住內存 -
network.bind_host
: 設置可以訪問的 ip, 可以是 ipv4 或 ipv6 的,默認爲 0.0.0.0,這裏全部設置通過 -
network.publish_host
: 設置其它結點和該結點交互的 ip 地址,如果不設置它會自動判斷,值必須是個真實的 ip 地址
同時設置bind_host
和publish_host
兩個參數可以替換成network.host
network.bind_host: 192.168.9.219
network.publish_host: 192.168.9.219
=>network.host: 192.168.9.219
-
http.port
: 設置對外服務的 http 端口,默認爲 9200 -
transport.tcp.port
: 設置節點之間交互的 tcp 端口,默認是 9300 -
http.cors.enabled
: 是否允許跨域 REST 請求 -
http.cors.allow-origin
: 允許 REST 請求來自何處 -
node.master
: true 配置該結點有資格被選舉爲主結點(候選主結點),用於處理請求和管理集羣。如果結點沒有資格成爲主結點,那麼該結點永遠不可能成爲主結點;如果結點有資格成爲主結點,只有在被其他候選主結點認可和被選舉爲主結點之後,才真正成爲主結點。 -
node.data
: true 配置該結點是數據結點,用於保存數據,執行數據相關的操作(CRUD,Aggregation); -
discovery.zen.minimum_master_nodes
: // 自動發現 master 節點的最小數,如果這個集羣中配置進來的 master 節點少於這個數目,es 的日誌會一直報 master 節點數目不足。(默認爲 1)爲了避免腦裂,個數請遵從該公式 => (totalnumber of master-eligible nodes / 2 + 1)。* 腦裂是指在主備切換時,由於切換不徹底或其他原因,導致客戶端和 Slave 誤以爲出現兩個 active master,最終使得整個集羣處於混亂狀態 * -
discovery.zen.ping.unicast.hosts
:集羣個節點 IP 地址,也可以使用 es-node 等名稱,需要各節點能夠解析
本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源:https://mp.weixin.qq.com/s/6kKpnDcYiGjTGUxMKH5Jrw