ES 不香嗎,爲啥還要 ClickHouse?

Elasticsearch 是一個實時的分佈式搜索分析引擎,它的底層是構建在 Lucene 之上的。簡單來說是通過擴展 Lucene 的搜索能力,使其具有分佈式的功能。

ES 通常會和其它兩個開源組件 Logstash(日誌採集)和 Kibana(儀表盤)一起提供端到端的日誌 / 搜索分析的功能,常常被簡稱爲 ELK。

Clickhouse 是俄羅斯搜索巨頭 Yandex 開發的面向列式存儲的關係型數據庫。ClickHouse 是過去兩年中 OLAP 領域中最熱門的,並於 2016 年開源。

ES 是最爲流行的大數據日誌和搜索解決方案,但是近幾年來,它的江湖地位受到了一些挑戰,許多公司已經開始把自己的日誌解決方案從 ES 遷移到了 Clickhouse,這裏就包括:攜程,快手等公司。

架構和設計的對比

ES 的底層是 Lucenc,主要是要解決搜索的問題。搜索是大數據領域要解決的一個常見的問題,就是在海量的數據量要如何按照條件找到需要的數據。搜索的核心技術是倒排索引和布隆過濾器。

ES 通過分佈式技術,利用分片與副本機制,直接解決了集羣下搜索性能與高可用的問題。

ElasticSearch 是爲分佈式設計的,有很好的擴展性,在一個典型的分佈式配置中,每一個節點(node)可以配製成不同的角色。

如上圖所示:

ClickHouse 是基於 MPP 架構的分佈式 ROLAP(關係 OLAP)分析引擎。每個節點都有同等的責任,並負責部分數據處理(不共享任何內容)。

ClickHouse 是一個真正的列式數據庫管理系統(DBMS)。在 ClickHouse 中,數據始終是按列存儲的,包括矢量(向量或列塊)執行的過程。

讓查詢變得更快,最簡單且有效的方法是減少數據掃描範圍和數據傳輸時的大小,而列式存儲和數據壓縮就可以幫助實現上述兩點。

Clickhouse 同時使用了日誌合併樹,稀疏索引和 CPU 功能(如 SIMD 單指令多數據)充分發揮了硬件優勢,可實現高效的計算。

Clickhouse 使用 Zookeeper 進行分佈式節點之間的協調。

爲了支持搜索,Clickhouse 同樣支持布隆過濾器。

查詢對比實戰

爲了對比 ES 和 Clickhouse 的基本查詢能力的差異,我寫了一些代碼來驗證:

https://github.com/gangtao/esvsch

這個測試的架構如下:

架構主要有四個部分組成:

①ES stack

ES stack 有一個單節點的 Elastic 的容器和一個 Kibana 容器組成,Elastic 是被測目標之一,Kibana 作爲驗證和輔助工具。

部署代碼如下:

version: '3.7'

services:
  elasticsearch:
    image: docker.elastic.co/elasticsearch/elasticsearch:7.4.0
    container_name: elasticsearch
    environment:
      - xpack.security.enabled=false
      - discovery.type=single-node
    ulimits:
      memlock:
        soft: -1
        hard: -1
      nofile:
        soft: 65536
        hard: 65536
    cap_add:
      - IPC_LOCK
    volumes:
      - elasticsearch-data:/usr/share/elasticsearch/data
    ports:
      - 9200:9200
      - 9300:9300
    deploy:
      resources:
        limits:
          cpus: '4'
          memory: 4096M
        reservations:
          memory: 4096M

  kibana:
    container_name: kibana
    image: docker.elastic.co/kibana/kibana:7.4.0
    environment:
      - ELASTICSEARCH_HOSTS=http://elasticsearch:9200
    ports:
      - 5601:5601
    depends_on:
      - elasticsearch

volumes:
  elasticsearch-data:
    driver: local

②Clickhouse stack

Clickhouse stack 有一個單節點的 Clickhouse 服務容器和一個 TabixUI 作爲 Clickhouse 的客戶端。

部署代碼如下:

version: "3.7"
services:
  clickhouse:
    container_name: clickhouse
    image: yandex/clickhouse-server
    volumes:
      - ./data/config:/var/lib/clickhouse
    ports:
      - "8123:8123"
      - "9000:9000"
      - "9009:9009"
      - "9004:9004"
    ulimits:
      nproc: 65535
      nofile:
        soft: 262144
        hard: 262144
    healthcheck:
      test: ["CMD""wget""--spider""-q""localhost:8123/ping"]
      interval: 30s
      timeout: 5s
      retries: 3
    deploy:
      resources:
        limits:
          cpus: '4'
          memory: 4096M
        reservations:
          memory: 4096M

  tabixui:
    container_name: tabixui
    image: spoonest/clickhouse-tabix-web-client
    environment:
      - CH_NAME=dev
      - CH_HOST=127.0.0.1:8123
      - CH_LOGIN=default
    ports:
      - "18080:80"
    depends_on:
      - clickhouse
    deploy:
      resources:
        limits:
          cpus: '0.1'
          memory: 128M
        reservations:
          memory: 128M

③數據導入 stack

數據導入部分使用了 Vector.dev 開發的 vector,該工具和 fluentd 類似,都可以實現數據管道式的靈活的數據導入。

④測試控制 stack

測試控制我使用了 Jupyter,使用了 ES 和 Clickhouse 的 Python SDK 來進行查詢的測試。

用 Docker compose 啓動 ES 和 Clickhouse 的 stack 後,我們需要導入數據,我們利用 Vector 的 generator 功能,生成 syslog,並同時導入 ES 和 Clickhouse。

在這之前,我們需要在 Clickhouse 上創建表。ES 的索引沒有固定模式,所以不需要事先創建索引。

創建表的代碼如下:

CREATE TABLE default.syslog(
    application String,
    hostname String,
    message String,
    mid String,
    pid String,
    priority Int16,
    raw String,
    timestamp DateTime('UTC'),
    version Int16
) ENGINE = MergeTree()
    PARTITION BY toYYYYMMDD(timestamp)
    ORDER BY timestamp
    TTL timestamp + toIntervalMonth(1);

創建好表之後,我們就可以啓動 vector,向兩個 stack 寫入數據了。vector 的數據流水線的定義如下:

[sources.in]
  type = "generator"
  format = "syslog"
  interval = 0.01
  count = 100000

[transforms.clone_message]
  type = "add_fields"
  inputs = ["in"]
  fields.raw = "{{ message }}"

[transforms.parser]
  # General
  type = "regex_parser"
  inputs = ["clone_message"]
  field = "message" # optional, default
  patterns = ['^<(?P<priority>\d*)>(?P<version>\d) (?P<timestamp>\d{4}-\d{2}-\d{2}T\d{2}:\d{2}:\d{2}\.\d{3}Z) (?P<hostname>\w+\.\w+) (?P<application>\w+) (?P<pid>\d+) (?P<mid>ID\d+) - (?P<message>.*)$']

[transforms.coercer]
  type = "coercer"
  inputs = ["parser"]
  types.timestamp = "timestamp"
  types.version = "int"
  types.priority = "int"

[sinks.out_console]
  # General
  type = "console"
  inputs = ["coercer"] 
  target = "stdout" 

  # Encoding
  encoding.codec = "json" 


[sinks.out_clickhouse]
  host = "http://host.docker.internal:8123"
  inputs = ["coercer"]
  table = "syslog"
  type = "clickhouse"

  encoding.only_fields = ["application""hostname""message""mid""pid""priority""raw""timestamp""version"]
  encoding.timestamp_format = "unix"

[sinks.out_es]
  # General
  type = "elasticsearch"
  inputs = ["coercer"]
  compression = "none" 
  endpoint = "http://host.docker.internal:9200" 
  index = "syslog-%F"

  # Encoding

  # Healthcheck
  healthcheck.enabled = true

這裏簡單介紹一下這個流水線:

運行 Docker 命令,執行該流水線:

docker run \
        -v $(mkfile_path)/vector.toml:/etc/vector/vector.toml:ro \
        -p 18383:8383 \
        timberio/vector:nightly-alpine

數據導入後,我們針對一下的查詢來做一個對比。ES 使用自己的查詢語言來進行查詢,Clickhouse 支持 SQL,我簡單測試了一些常見的查詢,並對它們的功能和性能做一些比較。

返回所有的記錄:

# ES
{
  "query":{
    "match_all":{}
  }
}

# Clickhouse 
"SELECT * FROM syslog"

匹配單個字段:

# ES
{
  "query":{
    "match":{
      "hostname":"for.org"
    }
  }
}

# Clickhouse 
"SELECT * FROM syslog WHERE host

匹配多個字段:

# ES
{
  "query":{
    "multi_match":{
      "query":"up.com ahmadajmi",
        "fields":[
          "hostname",
          "application"
        ]
    }
  }
}

# Clickhouse、
"SELECT * FROM syslog WHERE host

單詞查找,查找包含特定單詞的字段:

# ES
{
  "query":{
    "term":{
      "message":"pretty"
    }
  }
}

# Clickhouse
"SELECT * FROM syslog WHERE lowerUTF8(raw) LIKE '%pretty%'"

範圍查詢,查找版本大於 2 的記錄:

# ES
{
  "query":{
    "range":{
      "version":{
        "gte":2
      }
    }
  }
}

# Clickhouse
"SELECT * FROM syslog WHERE version >= 2"

查找到存在某字段的記錄:

# ES
{
  "query":{
    "exists":{
      "field":"application"
    }
  }
}

# Clickhouse
"SELECT * FROM syslog WHERE application is not NULL"

ES 是文檔類型的數據庫,每一個文檔的模式不固定,所以會存在某字段不存在的情況;而 Clickhouse 對應爲字段爲空值。

正則表達式查詢,查詢匹配某個正則表達式的數據:

# ES
{
  "query":{
    "regexp":{
      "hostname":{
        "value":"up.*",
          "flags":"ALL",
            "max_determinized_states":10000,
              "rewrite":"constant_score"
      }
    }
  }
}

# Clickhouse
"SELECT * FROM syslog WHERE match(hostname, 'up.*')"

聚合計數,統計某個字段出現的次數:

# ES
{
  "aggs":{
    "version_count":{
      "value_count":{
        "field":"version"
      }
    }
  }
}

# Clickhouse
"SELECT count(version) FROM syslog"

聚合不重複的值,查找所有不重複的字段的個數:

# ES
{
  "aggs":{
    "my-agg-name":{
      "cardinality":{
        "field":"priority"
      }
    }
  }
}

# Clickhouse
"SELECT count(distinct(priority)) FROM syslog "

我用 Python 的 SDK,對上述的查詢在兩個 Stack 上各跑 10 次,然後統計查詢的性能結果。

我們畫出出所有的查詢的響應時間的分佈:

總查詢時間的對比如下:

通過測試數據我們可以看出 Clickhouse 在大部分的查詢的性能上都明顯要優於 Elastic。

在正則查詢(Regex query)和單詞查詢(Term query)等搜索常見的場景下,也並不遜色。

在聚合場景下,Clickhouse 表現異常優秀,充分發揮了列村引擎的優勢。

注意,我的測試並沒有任何優化,對於 Clickhouse 也沒有打開布隆過濾器。可見 Clickhouse 確實是一款非常優秀的數據庫,可以用於某些搜索的場景。

當然 ES 還支持非常豐富的查詢功能,這裏只有一些非常基本的查詢,有些查詢可能存在無法用 SQL 表達的情況。

總結

本文通過對於一些基本查詢的測試,對比了 Clickhouse 和 Elasticsearch 的功能和性能。

測試結果表明,Clickhouse 在這些基本場景表現非常優秀,性能優於 ES,這也解釋了爲什麼用很多的公司應從 ES 切換到 Clickhouse 之上。

_作者:_Gang Tao

編輯:陶家龍

出處:zhuanlan.zhihu.com/p/353296392

本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://mp.weixin.qq.com/s/sycaORIoHvizdt8ICd9RNQ