Elasticsearch 如何做到快速檢索?

最近接觸的幾個項目都使用到了 Elasticsearch (以下簡稱 ES) 來存儲數據和對數據進行搜索分析,就對 ES 進行了一些學習。本文整理自我自己的一次技術分享。

本文不會關注 ES 裏面的分佈式技術、相關 API 的使用,而是專注分享下 “ES 如何快速檢索” 這個主題上面。這個也是我在學習之前對 ES 最感興趣的部分。

本文大致包括以下內容:

關於搜索:

細究倒排索引:

關於搜索

先設想一個關於搜索的場景,假設我們要搜索一首詩句內容中帶 “前” 字的古詩。

用傳統關係型數據庫和 ES 實現會有什麼差別?如果用像 MySQL 這樣的 RDBMS 來存儲古詩的話,我們應該會去使用這樣的 SQL 去查詢:

select name from poems where content like "%前%";

這種我們稱爲順序掃描法,需要遍歷所有的記錄進行匹配。不但效率低,而且不符合我們搜索時的期望。

比如我們在搜索 “ABCD"這樣的關鍵詞時,通常還希望看到"A","AB","CD",“ABC” 的搜索結果。於是乎就有了專業的搜索引擎,比如我們今天的主角 ES。

搜索引擎原理

搜索引擎的搜索原理簡單概括的話可以分爲這麼幾步:

這裏我們就引出了一個概念,也是我們今天的要剖析的重點倒排索引。也是 ES 的核心知識點。

如果你瞭解 ES 應該知道,ES 可以說是對 Lucene 的一個封裝,裏面關於倒排索引的實現就是通過 lucene 這個 jar 包提供的 API 實現的,所以下面講的關於倒排索引的內容實際上都是 lucene 裏面的內容。

倒排索引

首先我們還不能忘了我們之前提的搜索需求,先看下建立倒排索引之後,我們上述的查詢需求會變成什麼樣子。

這樣我們一輸入 “前”,藉助倒排索引就可以直接定位到符合查詢條件的古詩。

當然這只是一個很大白話的形式來描述倒排索引的簡要工作原理。在 ES  中,這個倒排索引是具體是個什麼樣的,怎麼存儲的等等,這些纔是倒排索引的精華內容。

①幾個概念

在進入下文之前,先描述幾個前置概念。

**term:**關鍵詞這個東西是我自己的講法,在 ES 中,關鍵詞被稱爲 term。

**postings list:**還是用上面的例子,{靜夜思,望廬山瀑布} 是 "前" 這個 term 所對應列表。在 ES 中,這些被描述爲所有包含特定 term 文檔的 id 的集合。

由於整型數字 integer 可以被高效壓縮的特質,integer 是最適合放在 postings list 作爲文檔的唯一標識的,ES 會對這些存入的文檔進行處理,轉化成一個唯一的整型 id。

再說下這個 id 的範圍,在存儲數據的時候,在每一個 shard 裏面,ES 會將數據存入不同的 segment,這是一個比 shard 更小的分片單位,這些 segment 會定期合併。

在每一個 segment 裏面都會保存最多 2^31 個文檔,每個文檔被分配一個唯一的 id,從 0 到 (2^31)-1。

相關的名詞都是 ES 官方文檔給的描述,後面參考材料中都可以找到出處。

②索引內部結構

上面所描述的倒排索引,僅僅是一個很粗糙的模型。真的要在實際生產中使用,當然還差的很遠。

在實際生產場景中,比如 ES 最常用的日誌分析,日誌內容進行分詞之後,可以得到多少的 term?

那麼如何快速的在海量 term 中查詢到對應的 term 呢?遍歷一遍顯然是不現實的。

**term dictionary:**於是乎就有了 term dictionary,ES 爲了能快速查找到 term,將所有的 term 排了一個序,二分法查找。

是不是感覺有點眼熟,這不就是 MySQL 的索引方式的,直接用 B + 樹建立索引詞典指向被索引的數據。

**term index:**但是問題又來了,你覺得 Term Dictionary 應該放在哪裏?肯定是放在內存裏面吧?磁盤 io 那麼慢。就像 MySQL 索引就是存在內存裏面了。

但是如果把整個 term dictionary 放在內存裏面會有什麼後果呢?內存爆了...

別忘了,ES 默認可是會對全部 text 字段進行索引,必然會消耗巨大的內存,爲此 ES 針對索引進行了深度的優化。

在保證執行效率的同時,儘量縮減內存空間的佔用。於是乎就有了 term index。

**Term index:**從數據結構上分類算是一個 “Trie 樹”,也就是我們常說的字典樹。

這是一種專門處理字符串匹配的數據結構,用來解決在一組字符串集合中快速查找某個字符串的問題。

這棵樹不會包含所有的 term,它包含的是 term 的一些前綴(這也是字典樹的使用場景,公共前綴)。

通過 term index 可以快速地定位到 term dictionary 的某個 offset,然後從這個位置再往後順序查找。就想右邊這個圖所表示的。

怎麼樣,像不像我們查英文字典,我們定位 S 開頭的第一個單詞,或者定位到 Sh 開頭的第一個單詞,然後再往後順序查詢?

lucene 在這裏還做了兩點優化,一是 term dictionary 在磁盤上面是分 block 保存的,一個 block 內部利用公共前綴壓縮,比如都是 Ab 開頭的單詞就可以把 Ab 省去。

二是 term index 在內存中是以 FST(finite state transducers)的數據結構保存的。

FST 有兩個優點:

FST 的理論比較複雜,本文不細講,延伸閱讀:

https://www.shenyanchao.cn/blog/2018/12/04/lucene-fst/

OK,現在我們能得到 lucene 倒排索引大致是個什麼樣子的了。

關於 postings list 的一些巧技

在實際使用中,postings list 還需要解決幾個痛點:

對於如何壓縮,可能會有人覺得沒有必要,”posting list 不是已經只存儲文檔 id 了嗎?還需要壓縮?”,但是如果在 posting list 有百萬個 doc id 的情況,壓縮就顯得很有必要了。

比如按照朝代查詢古詩,至於爲啥需要求交併集,ES 是專門用來搜索的,肯定會有很多聯合查詢的需求吧 (AND、OR)。按照上面的思路,我們先將如何壓縮。

①壓縮

**Frame of Reference:**在 lucene 中,要求 postings lists 都要是有序的整形數組。

這樣就帶來了一個很好的好處,可以通過 增量編碼(delta-encode)這種方式進行壓縮。

比如現在有 id 列表 [73, 300, 302, 332, 343, 372],轉化成每一個 id 相對於前一個 id 的增量值(第一個 id 的前一個 id 默認是 0,增量就是它自己)列表是 [73, 227, 2, 30, 11, 29]。

在這個新的列表裏面,所有的 id 都是小於 255 的,所以每個 id 只需要一個字節存儲。

實際上 ES 會做的更加精細:

它會把所有的文檔分成很多個 block,每個 block 正好包含 256 個文檔,然後單獨對每個文檔進行增量編碼。

計算出存儲這個 block 裏面所有文檔最多需要多少位來保存每個 id,並且把這個位數作爲頭信息(header)放在每個 block 的前面。這個技術叫 Frame of Reference。

上圖也是來自於 ES 官方博客中的一個示例(假設每個 block 只有 3 個文件而不是 256)。

FOR 的步驟可以總結爲:

進過最後的位壓縮之後,整型數組的類型從固定大小(8,16,32,64 位)4 種類型,擴展到了 [1-64] 位共 64 種類型。

通過以上的方式可以極大的節省 posting list 的空間消耗,提高查詢性能。不過 ES 爲了提高 filter 過濾器查詢的性能,還做了更多的工作,那就是緩存。

**Roaring Bitmaps (for filter cache):**在 ES 中,可以使用 filters 來優化查詢,filter 查詢只處理文檔是否匹配與否,不涉及文檔評分操作,查詢的結果可以被緩存。

對於 filter 查詢,es 提供了 filter cache 這種特殊的緩存,filter cache 用來存儲 filters 得到的結果集。

緩存 filters 不需要太多的內存,它只保留一種信息,即哪些文檔與 filter 相匹配。同時它可以由其它的查詢複用,極大地提升了查詢的性能。

我們上面提到的 Frame Of Reference 壓縮算法對於 postings list 來說效果很好,但對於需要存儲在內存中的 filter cache 等不太合適。

filter cache 會存儲那些經常使用的數據,針對 filter 的緩存就是爲了加速處理效率,對壓縮算法要求更高。

對於這類 postings list,ES 採用不一樣的壓縮方式。那麼讓我們一步步來。首先我們知道 postings list 是 Integer 數組,具有壓縮空間。

假設有這麼一個數組,我們第一個壓縮的思路是什麼?用位的方式來表示,每個文檔對應其中的一位,也就是我們常說的位圖,bitmap。

它經常被作爲索引用在數據庫、查詢引擎和搜索引擎中,並且位操作(如 and 求交集、or 求並集)之間可以並行,效率更好。

但是,位圖有個很明顯的缺點,不管業務中實際的元素基數有多少,它佔用的內存空間都恆定不變。

也就是說不適用於稀疏存儲。業內對於稀疏位圖也有很多成熟的壓縮方案,lucene 採用的就是 roaring bitmaps。

我這裏用簡單的方式描述一下這個壓縮過程是怎麼樣:

將 doc id 拆成高 16 位,低 16 位。對高位進行聚合 (以高位做 key,value 爲有相同高位的所有低位數組),根據低位的數據量 (不同高位聚合出的低位數組長度不相同),使用不同的 container(數據結構) 存儲。

分界線的來源:value 的最大總數是爲 2^16=65536. 假設以 bitmap 方式存儲需要 65536bit=8kb,而直接存值的方式,一個值 2 byte,4K 個總共需要 2byte*4K=8kb。

所以當 value 總量 <4k 時,使用直接存值的方式更節省空間。

空間壓縮主要體現在:

缺點就在於位操作的速度相對於原生的 bitmap 會有影響。這就是 trade-off 呀。平衡的藝術。

②聯合查詢

講完了壓縮,我們再來講講聯合查詢。先講簡單的,如果查詢有 filter cache,那就是直接拿 filter cache 來做計算,也就是說位圖來做 AND 或者 OR 的計算。

如果查詢的 filter 沒有緩存,那麼就用 skip list 的方式去遍歷磁盤上的 postings list。

以上是三個 posting list。我們現在需要把它們用 AND 的關係合併,得出 posting list 的交集。

首先選擇最短的 posting list,逐個在另外兩個 posting list 中查找看是否存在,最後得到交集的結果。

遍歷的過程可以跳過一些元素,比如我們遍歷到綠色的 13 的時候,就可以跳過藍色的 3 了,因爲 3 比 13 要小。

用 skip list 還會帶來一個好處,還記得前面說的嗎,postings list 在磁盤裏面是採用 FOR 的編碼方式存儲的。

會把所有的文檔分成很多個 block,每個 block 正好包含 256 個文檔,然後單獨對每個文檔進行增量編碼,計算出存儲這個 block 裏面所有文檔最多需要多少位來保存每個 id,並且把這個位數作爲頭信息(header)放在每個 block 的前面。

因爲這個 FOR 的編碼是有解壓縮成本的。利用 skip list,除了跳過了遍歷的成本,也跳過了解壓縮這些壓縮過的 block 的過程,從而節省了 cpu。

總結

下面我們來做一個技術總結:

①爲了能夠快速定位到目標文檔,ES 使用倒排索引技術來優化搜索速度,雖然空間消耗比較大,但是搜索性能提高十分顯著。

②爲了能夠在數量巨大的 terms 中快速定位到某一個 term,同時節約對內存的使用和減少磁盤 io 的讀取。

lucene 使用 "term index→term dictionary→postings list" 的倒排索引結構,通過 FST 壓縮放入內存,進一步提高搜索效率。

③爲了減少  postings list 的磁盤消耗,lucene 使用了 FOR(Frame of Reference)技術壓縮,帶來的壓縮效果十分明顯。

④ES 的 filter 語句採用了 Roaring Bitmap 技術來緩存搜索結果,保證高頻 filter 查詢速度的同時降低存儲空間消耗。

⑤在聯合查詢時,在有 filter cache 的情況下,會直接利用位圖的原生特性快速求交併集得到聯合查詢結果,否則使用 skip list 對多個 postings list 求交併集,跳過遍歷成本並且節省部分數據的解壓縮 cpu 成本。

Elasticsearch 的索引思路

將磁盤裏的東西儘量搬進內存,減少磁盤隨機讀取次數 (同時也利用磁盤順序讀特性),結合各種壓縮算法,用及其苛刻的態度使用內存。

所以,對於使用 Elasticsearch 進行索引時需要注意:

最後說一下,技術選型永遠伴隨着業務場景的考量,每種數據庫都有自己要解決的問題(或者說擅長的領域),對應的就有自己的數據結構,而不同的使用場景和數據結構,需要用不同的索引,才能起到最大化加快查詢的目的。

這篇文章講的雖是 Lucene 如何實現倒排索引,如何精打細算每一塊內存、磁盤空間、如何用詭譎的位運算加快處理速度。

但往高處思考,再類比一下 MySQL,你就會發現,雖然都是索引,但是實現起來,截然不同。籠統的來說,B-tree 索引是爲寫入優化的索引結構。

當我們不需要支持快速的更新的時候,可以用預先排序等方式換取更小的存儲空間,更快的檢索速度等好處,其代價就是更新慢,就像 ES。

作者:Richard_Yi

來源:https://juejin.cn/post/6889020742366920712

架構師

我們都是架構師!

本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://mp.weixin.qq.com/s/tHhNBAFQAlys7uBQt2iAQA