Go 在馬蜂窩即時通訊服務建設中的實踐

即時通訊(IM)功能對於電商平臺來說非常重要,特別是旅遊電商。

從商品複雜性來看,一個旅遊商品可能會包括用戶在未來一段時間的衣、食、住、行等方方面面;從消費金額來看,往往單次消費額度較大;對目的地的陌生、在行程中可能的問題,這些因素使用戶在購買前、中、後都存在和商家溝通的強烈需求。可以說,一個好用的 IM 可以在一定程度上對企業電商業務的 GMV 起到促進作用。

本文我們將結合馬蜂窩旅遊電商 IM 服務的發展歷程,重點介紹基於 Go 的 IM 重構,希望可以給有相似問題的朋友一些借鑑。

Part.1

技術背景和問題

與廣義上的即時通訊不同,電商各業務線有其特有業務邏輯,如客服聊天系統的客人分配邏輯、敏感詞檢測邏輯等,這些往往要耦合進通信流程中。隨著接入業務線越來越多,即時通訊服務冗餘度會越來越高。同時整個消息鏈路追溯複雜,服務穩定性很受業務邏輯的影響。

之前我們 IM 應用中的消息推送主要基於輪詢技術,消息輪詢模塊的長連接請求是通過 php-fpm 掛載在阻塞隊列上實現。當請求量較大時,如果不能及時釋放 php-fpm 進程,對服務器的性能消耗很大。

為了解決這個問題,我們曾用 OpenResty+Lua 的方式進行改造,利用 Lua 協程的方式將整體的 polling 的能力從 PHP 轉交到 Lua 處理,釋放一部 PHP 的壓力。這種方式雖然能提升一部分性能,但 PHP-Lua 的混合異構模式,使系統在使用、升級、調試和維護上都很麻煩,通用性也較差,很多業務場景下還是要依賴 PHP 接口,優化效果並不明顯。

為了解決以上問題,我們決定結合電商 IM 的特定背景對 IM 服務進行重構,核心是實現業務邏輯和即時通訊服務的分離。

Part.2

基於Go的雙層分佈式IM架構

2.1 實現目標

1. 業務解耦

將業務邏輯與通信流程剝離,使 IM 服務架構更加清晰,實現與電商 IM 業務邏輯的完全分離,保證服務穩定性。

2. 接入方式靈活

之前新業務接入時,需要在業務服務器上配置 OpenResty 環境及 Lua 協程代碼,非常不便,IM 服務的通用性也很差。考慮到現有業務的實際情況,我們希望 IM 系統可以提供 HTTP 和 WebSocket 兩種接入方式,供業務方根據不同的場景來靈活使用。

比如已經接入且運行良好的電商定製化團隊的待辦系統、定製遊搶單系統、投訴系統等下行相關的系統等,這些業務沒有明顯的高併發需求,可以通過 HTTP 方式迅速接入,不需要熟悉稍顯複雜的 WebSocket 協議,進而降低不必要的研發成本。

3. 架構可擴展

為了應對業務的持續增長給系統性能帶來的挑戰,我們考慮用分佈式架構來設計即時通訊服務,使系統具有持續擴展及提升的能力。

2.2 語言選擇

目前,馬蜂窩技術體系主要包括 PHP,Java,Golang,技術棧比較豐富,使業務做選型時可以根據問題場景選擇更合適的工具和語言。

結合 IM 具體應用場景,我們選擇 Go 的原因包括:

1. 性能

在性能上,尤其是針對網絡通信等 IO 密集型應用場景。Go 系統的性能更接近 C/C++。

2. 開發效率

Go 使用起來簡單,代碼編寫效率高,上手也很快,尤其是對於有一定 C++ 基礎的開發者,一週就能上手寫代碼了。

2.3 架構設計

整體架構圖如下:


Go 在馬蜂窩即時通訊服務建設中的實踐


名詞解釋:

  • 客戶:一般指購買商品的用戶
  • 商家:提供服務的供應商,商家會有客服人員,提供給客戶一個在線諮詢的作用
  • 分發模塊:即 Dispatcher,提供消息分發的給指定的工作模塊的橋接作用
  • 工作模塊:即 Worker 服務器,用來提供 WebSocket 服務,是真正工作的一個模塊。

架構分層:

  • 展示層:提供 HTTP 和 WebSocket 兩種接入方式。
  • 業務層:負責初始化消息線和業務邏輯處理。如果客戶端以 HTTP 方式接入,會以 JSON 格式把消息發送給業務服務器進行消息解碼、客服分配、敏感詞過濾,然後下發到消息分發模塊準備下一步的轉換;通過 WebSocket 接入的業務則不需要消息分發,直接以 WebSocket 方式發送至消息處理模塊中。

  • 服務層:由消息分發和消息處理這兩層組成,分別以分佈式的方式部署多個 Dispatcher 和 Worker 節點。Dispatcher 負責檢索出接收者所在的服務器位置,將消息以 RPC 的方式發送到合適的 Worker 上,再由消息處理模塊通過 WebSocket 把消息推送給客戶端。
  • 數據層:Redis 集群,記錄用戶身份、連接信息、客戶端平臺(移動端、網頁端、桌面端)等組成的唯一 Key。

2.4 服務流程

步驟一

如上圖右側所示,用戶客戶端與消息處理模塊建立 WebSocket 長連接。通過負載均衡算法,使客戶端連接到合適的服務器(消息處理模塊的某個 Worker)。連接成功後,記錄用戶連接信息,包括用戶角色(客人或商家)、客戶端平臺(移動端、網頁端、桌面端)等組成唯一 Key,記錄到 Redis 集群。

步驟二


如圖左側所示,當購買商品的用戶要給管家發消息的時候,先通過 HTTP 請求把消息發給業務服務器,業務服務端對消息進行業務邏輯處理。


(1) 該步驟本身是一個 HTTP 請求,所以可以接入各種不同開發語言的客戶端。通過 JSON 格式把消息發送給業務服務器,業務服務器先把消息解碼,然後拿到這個用戶要發送給哪個商家的客服的。

(2) 如果這個購買者之前沒有聊過天,則在業務服務器邏輯裡需要有一個分配客服的過程,即建立購買者和商家的客服之間的連接關係。拿到這個客服的 ID,用來做業務消息下發;如果之前已經聊過天,則略過此環節。

(3) 在業務服務器,消息會異步入數據庫。保證消息不會丟失。

步驟三

業務服務端以 HTTP 請求把消息發送到消息分發模塊。這裡分發模塊的作用是進行中轉,最終使服務端的消息下發給指定的商家。

步驟四

基於 Redis 集群中的用戶連接信息,消息分發模塊將消息轉發到目標用戶連接的 WebSocket 服務器(消息處理模塊中的某一個 Worker)

(1) 分發模塊通過 RPC 方式把消息轉發到目標用戶連接的 Worker,RPC 的方式性能更快,而且傳輸的數據也少,從而節約了服務器的成本。

(2) 消息透傳 Worker 的時候,多種策略保障消息一定會下發到 Worker。

步驟五

消息處理模塊將消息通過 WebSocket 協議推送到客戶端

(1) 在投遞的時候,接收者要有一個 ACK(應答) 信息來回饋給 Worker 服務器,告訴 Worker 服務器,下發的消息接收者已經收到了。

(2) 如果接收者沒有發送這個 ACK 來告訴 Worker 服務器,Worker 服務器會在一定的時間內來重新把這個信息發送給消息接收者。

(3) 如果投遞的信息已經發送給客戶端,客戶端也收到了,但是因為網絡抖動,沒有把 ACK 信息發送給服務器,那服務器會重複投遞給客戶端,這時候客戶端就通過投遞過來的消息 ID 來去重展示。

以上步驟的數據流轉大致如圖所示:


Go 在馬蜂窩即時通訊服務建設中的實踐


2.5 系統完整性設計

2.5.1 可靠性

(1)消息不丟失

為了避免消息丟失,我們設置了超時重傳機制。服務端會在推送給客戶端消息後,等待客戶端的 ACK,如果客戶端沒有返回 ACK,服務端會嘗試多次推送。

目前默認 18s 為超時時間,重傳 3 次不成功,斷開連接,重新連接服務器。重新連接後,採用拉取歷史消息的機制來保證消息完整。

(2)多端消息同步

客戶端現有 PC 瀏覽器、Windows 客戶端、H5、iOS/Android,系統允許用戶多端同時在線,且同一端可以多個狀態,這就需要保證多端、多用戶、多狀態的消息是同步的。

我們用到了 Redis 的 Hash 存儲,將用戶信息、唯一連接對應值 、連接標識、客戶端 IP、服務器標識、角色、渠道等記錄下來,這樣通過 key(uid) 就能找到一個用戶在多個端的連接,通過 key+field 能定位到一條連接。


2.5.2 可用性

上文我們已經說過,因為是雙層設計,就涉及到兩個 Server 間的通信,同進程內通信用 Channel,非同進程用消息隊列或者 RPC。綜合性能和對服務器資源利用,我們最終選擇 RPC 的方式進行 Server 間通信。在對基於 Go 的 RPC 進行選行時,我們比較了以下比較主流的技術方案:

  • Go STDRPC:Go 標準庫的 RPC,性能最優,但是沒有治理
  • RPCX:性能優勢 2*GRPC + 服務治理
  • GRPC:跨語言,但性能沒有 RPCX 好
  • TarsGo:跨語言,性能 5*GRPC,缺點是框架較大,整合起來費勁
  • Dubbo-Go:性能稍遜一籌, 比較適合 Go 和 Java 間通信場景使用

最後我們選擇了 RPCX,因為性能也很好,也有服務的治理。

兩個進程之間同樣需要通信,這裡用到的是 ETCD 實現服務註冊發現機制。

當我們新增一個 Worker,如果沒有註冊中心,就要用到配置文件來管理這些配置信息,這挺麻煩的。而且你新增一個後,需要分發模塊立刻發現,不能有延遲。

如果有新的服務,分發模塊希望能快速感知到新的服務。利用 Key 的續租機制,如果在一定時間內,沒有監聽到 Key 有續租動作,則認為這個服務已經掛掉,就會把該服務摘除。


在進行註冊中心的選型時,我們主要調研了 ETCD,ZK,Consul,三者的壓測結果參考如下:

Go 在馬蜂窩即時通訊服務建設中的實踐

Go 在馬蜂窩即時通訊服務建設中的實踐


結果顯示,ETCD 的性能是最好的。另外,ETCD 背靠阿里巴巴,而且屬於 Go 生態,我們公司內部的 K8S 集群也在使用。

綜合考量後,我們選擇使用 ETCD 作為服務註冊和發現組件。並且我們使用的是 ETCD 的集群模式,如果一臺服務器出現故障,集群其他的服務器仍能正常提供服務。

通過保證服務和進程間的正常通訊,及 ETCD 集群模式的設計,保證了 IM 服務整體具有極高的可用性。

2.5.3 擴展性

消息分發模塊和消息處理模塊都能進行水平擴展。當整體服務負載高時,可以通過增加節點來分擔壓力,保證消息即時性和服務穩定性。

2.5.4 安全性


處於安全性考慮,我們設置了黑名單機制,可以對單一 uid 或者 ip 進行限制。比如在同一個 uid 下,如果一段時間內建立的連接次數超過設定的閾值,則認為這個 uid 可能存在風險,暫停服務。如果暫停服務期間該 uid 繼續發送請求,則限制服務的時間相應延長。


2.6 性能優化和踩過的坑


2.6.1 性能優化


(1) JSON 編解碼


開始我們使用官方的 JSON 編解碼工具,但由於對性能方面的追求,改為使用滴滴開源的 Json-iterator,使在兼容原生 Golang 的 JSON 編解碼工具的同時,效率上有比較明顯的提升。以下是壓測對比的參考圖:


Go 在馬蜂窩即時通訊服務建設中的實踐


(2) time.After


在壓測的時候,我們發現內存佔用很高,於是使用 Go Tool PProf 分析 Golang 函數內存申請情況,發現有不斷創建 time.After 定時器的問題,定位到是心跳協程裡面。


原來代碼如下:


Go 在馬蜂窩即時通訊服務建設中的實踐


優化後的代碼為:


Go 在馬蜂窩即時通訊服務建設中的實踐


優化點在於 for 循環裡不要使用 select + time.After 的組合。


(3) Map 的使用


在保存連接信息的時候會用到 Map。因為之前做 TCP Socket 的項目的時候就遇到過一個坑,即 Map 在協程下是不安全的。當多個協程同時對一個 Map 進行讀寫時,會拋出致命錯誤:fetal error:concurrent map read and map write,有了這個經驗後,我們這裡用的是 sync.Map


2.6.2 踩坑經驗


(1) 協程異常


基於對開發成本和服務穩定性等問題的考慮,我們的 WebSocket 服務基於 Gorilla/WebSocket 框架開發。其中遇到一個問題,就是當讀協程發生異常退出時,寫協程並沒有感知到,結果就是導致讀協程已經退出但是寫協程還在運行,直到觸發異常之後才退出。這樣雖然從表面上看不影響業務邏輯,但是浪費後端資源。在編碼時應該注意要在讀協程退出後主動通知寫協程,這樣一個小的優化可以這在高併發下能節省很多資源。


(2) 心跳設計


舉個例子,之前我們在閒時心跳功能的開發中走了一些彎路。最初在服務器端的心跳發送是定時心跳,但後來在實際業務場景中使用時發現,設計成服務器讀空閒時心跳更好。因為用戶都在聊天呢,發一個心跳幀,浪費感情也浪費帶寬資源。


這時候,建議大家在業務開發過程中如果代碼寫不下去就暫時不要寫了,先結合業務需求用文字梳理下邏輯,可能會發現之後再進行會更順利。


(3) 每天分割日誌


Go 在馬蜂窩即時通訊服務建設中的實踐


日誌模塊在起初調研的時候基於性能考慮,確定使用 Uber 開源的 ZAP 庫,而且滿足業務日誌記錄的要求。日誌庫選型很重要,選不好也是影響系統性能和穩定性的。ZAP 的優點包括:


  • 顯示代碼行號這個需求,ZAP 支持而 Logrus 不支持,這個屬於提效的。行號展示對於定位問題很重要。
  • ZAP 相對於 Logrus 更為高效,體現在寫 JSON 格式日誌時,沒有使用反射,而是用內建的 json encoder,通過明確的類型調用,直接拼接字符串,最小化性能開銷。


小坑:


每天寫一個日誌文件的功能,目前 ZAP 不支持,需要自己寫代碼支持,或者請求系統部支持。


Part.3

性能表現


壓測 1:


上線生產環境並和業務方對接以及壓測,目前定製業務已接通整個流程,寫了一個 Client。模擬定期發心跳幀,然後利用 Docker 環境。開啟了 50 個容器,每個容器模擬併發起 2 萬個連接。這樣就是百萬連接打到單機的 Server 上。單機內存佔用 30G 左右。


壓測 2:


同時併發 3000、4000、5000 連接,以及調整發送頻率,分別對應上行:60萬、80 萬、100 萬、200 萬, 一個 6k 左右的日誌結構體。


其中有一半是心跳包 另一半是日誌結構體。在不同的壓力下的下行延遲數據如下:


Go 在馬蜂窩即時通訊服務建設中的實踐


結論:隨著上行的併發變大,延遲控制在 24-66 毫秒之間。所以對於下行業務屬於輕微延遲。另外針對 60 萬 5k 上行的同時,用另一個腳本模擬開啟 50 個協程併發下行 1k 的數據體,延遲是比沒有併發下行的時候是有所提高的,延遲提高了 40ms 左右。


Part.4

總結


基於 Go 重構的 IM 服務在 WebSocket 的基礎上,將業務層設計為配有消息分發模塊和消息處理模塊的雙層架構模式,使業務邏輯的處理前置,保證了即時通訊服務的純粹性和穩定性;同時消息分發模塊的 HTTP 服務方便多種編程語言快速對接,使各業務線能迅速接入即時通訊服務。


最後,我還想為 Go 搖旗吶喊一下。很多人都知道馬蜂窩技術體系主要是基於 PHP,有一些核心業務也在向 Java 遷移。與此同時,Go 也在越來越多的項目中發揮作用。現在,雲原生理念已經逐漸成為主流趨勢之一,我們可以看到在很多構建雲原生應用所需要的核心項目中,Go 都是主要的開發語言,比如 Kubernetes,Docker,Istio,ETCD,Prometheus 等,包括第三代開源分佈式數據庫 TiDB。


所以我們可以把 Go 稱為雲原生時代的母語。「雲原生時代,是開發者最好的時代」,在這股浪潮下,我們越早走進 Go,就可能越早在這個新時代搶佔關鍵賽道。希望更多小夥伴和我們一起,加入到 Go 的開發和學習陣營中來,拓寬自己的技能圖譜,擁抱雲原生。


本文作者:Anti Walker,馬蜂窩旅遊網電商交易基礎平臺研發工程師。


分享到:


相關文章: