基於 Elasticsearch 搜索平臺

基於 Elasticsearch 搜索平臺

背景

隨著公司業務的高速發展以及數據爆炸式的增長,當前公司各產線都有關於搜索方面的需求,但是以前的搜索服務系統由於架構與業務上的設計,不能很好的滿足各個業務線的期望,主要體現下面三個問題:

  1. 不能支持對語句級別的搜索,大量業務相關的屬性根本無法實現
  2. 沒有任何搜索相關的指標評價體系
  3. 擴展性與維護性特別差

基於現狀,對行業內的搜索服務做出充分調研,確認使用 Elasticsearch 做底層索引存儲,同時重新設計現有搜索服務,使其滿足業務方對維護性、定製化搜索排序方面的需求。

整體技術架構

滬江搜索服務底層基於分佈式搜索引擎 ElasticSearch,ElasticSearch 是一個基於 Lucene 構建的開源,分佈式,Restful 搜索引擎;能夠達到近實時搜索,穩定,可靠,快速響應的要求。

基於 Elasticsearch 搜索平臺

搜索服務整體分為5個子系統

  • 搜索服務( Search Server ) : 提供搜索與查詢的功能
  • 更新服務( Index Server ) : 提供增量更新與全量更新的功能
  • Admin 控制檯 : 提供 UI 界面,方便索引相關的維護操作
  • ElasticSearch 存儲系統 : 底層索引數據存儲服務
  • 監控平臺: 提供基於 ELK 日誌與 zabbix 的監控

外部系統接口設計

基於 Elasticsearch 搜索平臺

  • 查詢查詢接口提供 http 的調用方式,當出現跨機房訪問的時候,請使用http接口,其餘都可以使用 dubbo RPC 調用
  • 增量更新數據增量更新接口採用提供 MQ 的方式接入。當業務方出現數據更新的時候,只需將數據推送到對應的 MQ 通道中即可。更新服務會監聽每個業務方通道,及時將數據更新到 Elasticsearch 中
  • 全量索引更新服務會調用業務方提供的全量 Http 接口(該接口需提供分頁查詢等功能)

全量更新

眾所周知,全量更新的功能在搜索服務中是必不可少的一環。它主要能解決以下三個問題

  • 業務方本身系統的故障,出現大量數據的丟失
  • 業務高速發展產生增減字段或者修改分詞算法等相關的需求
  • 業務冷啟動會有一次性導入大批量數據的需求

基於上面提到的問題,我們與業務方合作實現了全量索引。但是在這個過程中,我們也發現一個通用的問題。在進行全量更新的時候,其實增量更新也在同時進行,如果這兩種更新同時在進行的話,就會有遇到少量增量更新的數據丟失。比如說下面這個場景

  1. 業務方發現自己搜索業務 alias_A 數據大量數據丟失,所以進行索引重建。其中 alias_A 是別名,就是我們通常說 alias ,但是底層真正的索引是index_201701011200 (建議:索引裡面包含時間屬性,這樣就能知道是什麼創建的)
  2. 首先創建一個新的索引 index_201706011200,然後從數據中拉出數據並插入ES 中,並記錄時間戳T1,最後索引完成的時間戳為 T2 ,並切換搜索別名index_1 指向 index_201706011200。
  3. 索引創建成功之後的最新數據為T1這個時刻的,但是 T1 到 T2 這段時間的數據,並沒有獲取出來。同時 index_201701011200 老索引還在繼續消費 MQ 中的數據,包括 T1 到 T2 時間內的缺少數據。
  4. 所以每次索引重建的時候,都會缺少 T1T2 時間內的數據。

最後,針對上面這個場景,我們提出通過 zookeeper 分佈式鎖來暫停 index consumer 的消費,具體步驟如下

  1. 創建 new_index
  2. 獲取該 index 對應的別名,來修改分佈式鎖的狀態為 stop
  3. index consumer 監控 stop 狀態,暫停索引數據的更新
  4. new_index 索引數據創建完畢,更新分佈式鎖狀態為start
  5. index consumer 監控 start 狀態,繼續索引數據的更新
基於 Elasticsearch 搜索平臺

這樣的話,我們就不用擔心在創建索引的這段時間內,數據會有缺少的問題。相信大家對於這種方式解決全量與增量更新數據有所體會。

集群無縫擴容

數據量爆炸式的增加,導致我們 ES 集群最終還是遇到了容量不足的問題。在此背景下,同時結合 ES 本身提供的無縫擴容功能,我們最終決定對線上ES集群進行了在線的無縫擴容,將從原來的 3 臺機器擴容為 5 臺,具體步驟如下

  • 擴容前準備目前我們線上已經有 3 臺機器正在運行著,其中 node1 為 master 節點,node2 和 node3 為data節點,節點通信採用單播的形式而非廣播的方式。準備 2 臺( node4 與 node5 )機器,其中機器本身配置與 ES 配置參數需保持一致
  • 擴容中增加節點啟動 node4 與 node5 (注意一個一個啟動),啟動完成之後,查看node1,2,3,4,5 節點狀態,正常情況下 node1,2,3 節點都已發現 node4 與 node5,並且各節點之間狀態應該是一致的
  • 重啟 master node修改 node1,2,3節點配置與 node4,5保持一致,然後順序重啟 node2與 node3 ,一定要優先重啟 data node,最後我們在重啟 node1( master node).到此為止,我們的線上 ES 集群就在線無縫的擴容完畢
基於 Elasticsearch 搜索平臺

部署優化

  • 查詢與更新服務分離查詢服務與更新服務在部署上進行物理隔離,這樣可以隔離更新服務的不穩定對查詢服務的影響
  • 預留一半內存ES 底層存儲引擎是基於 Lucene ,Lucene 的倒排索引是先在內存中生成,然後定期以段的形式異步刷新到磁盤上,同時操作系統也會把這些段文件緩存起來,以便更快的訪問。所以Lucene的性能取決於和OS的交互,如果你把所有的內存都分配給 Elasticsearch,不留一點給 Lucene,那你的全文檢索性能會很差的。所有官方建議,預留一半以上內存給 Lucene 使用
  • 內存不要超過 32G跨 32G 的時候,會出現一些現象使得內存使用率還不如低於 32G,具體原因請參考官方提供的這篇文章 Don’t Cross 32 GB!
  • 儘量避免使用 wildcard其實使用 wildcard 查詢,有點類似於在數據庫中使用左右通配符查詢。(如:*foo*z這樣的形式)
  • 設置合理的刷新時間ES 中默認 index.refresh_interval 參數為1s。對於大多數搜索場景來說,數據生效時間不需要這麼及時,所以大家可以根據自己業務的容忍程度來調整

總結

本章主要介紹公司搜索服務的整體架構,重點對全量更新中數據一致性的問題, ES 在線擴容做了一定的闡述,同時列舉了一些公司在部署 ES 上做的一些優化。本文主要目的,希望大家通過閱讀滬江搜索實踐,能夠給廣大讀者帶來一些關於搭建一套通用搜索的建議


分享到:


相關文章: