01.13 TCP 協議快被淘汰了,UDP 協議才是新世代的未來?


TCP 協議快被淘汰了,UDP 協議才是新世代的未來?

TCP 協議可以說是今天互聯網的基石,作為可靠的傳輸協議,在今天幾乎所有的數據都會通過 TCP 協議傳輸,然而 TCP 在設計之初沒有考慮到現今複雜的網絡環境,當你在地鐵上或者火車上被斷斷續續的網絡折磨時,你可能都不知道這一切可能都是 TCP 協議造成的。本文會分析 TCP 協議為什麼在弱網環境下有嚴重的性能問題[^1]。

底層的數據傳輸協議在設計時必須要對帶寬的利用率和通信延遲進行權衡和取捨,所以想要解決實際生產中的全部問題是不可能的,TCP 選擇了充分利用帶寬,為流量而設計,期望在儘可能短的時間內傳輸更多的數據[^2]。

在網絡通信中,從發送方發出數據開始到收到來自接收方的確認的時間被叫做往返時延(Round-Trip Time,RTT)。

弱網環境是丟包率較高的特殊場景,TCP 在類似場景中的表現很差,當 RTT 為 30ms 時,一旦丟包率達到了 2%,TCP 的吞吐量就會下降 89.9%[^3],從下面的表中我們可以看出丟包對 TCP 的吞吐量極其顯著的影響:

RTTTCP 吞吐量TCP 吞吐量(2% 丟包率)0 ms93.5 Mbps3.72 Mbps30 ms16.2 Mbps1.63 Mbps60 ms8.7 Mbps1.33 Mbps90 ms5.32 Mbps0.85 Mbps


本文將分析在弱網環境下(丟包率高)影響 TCP 性能的三個原因:

  • TCP 的擁塞控制算法會在丟包時主動降低吞吐量;
  • TCP 的三次握手增加了數據傳輸的延遲和額外開銷;
  • TCP 的累計應答機制導致了數據段的傳輸;

在上述的三個原因中,擁塞控制算法是導致 TCP 在弱網環境下有著較差表現的首要原因,三次握手和累計應答兩者的影響依次遞減,但是也加劇了 TCP 的性能問題。

擁塞控制

TCP 擁塞控制算法是互聯網上主要的擁塞控制措施,它使用一套基於線増積減(Additive increase/multiplicative decrease,AIMD)的網絡擁塞控制方法來控制擁塞[^4],也是造成 TCP 性能問題的主要原因。

第一次發現的互聯網擁塞崩潰是在 1986 年,NSFnet 階段一的骨幹網的處理能力從 32,000bit/s 降到了 40bit/s,該骨幹網的處理能力直到 1987 和 1988 年,TCP 協議實現了擁塞控制之後才得到解決[^5]。正是因為發生過網絡阻塞造成的崩潰,所以 TCP 的擁塞控制算法就認為只要發生了丟包當前網絡就發生了擁堵,從這一假設出發,TCP 就使用了慢啟動和線增積減[^6]的機制實現擁塞控制。

TCP 協議快被淘汰了,UDP 協議才是新世代的未來?

tcp-congestion-control

圖 1 - TCP 的擁塞控制機制

每一個 TCP 連接都會維護一個擁塞控制窗口(Congestion Window),擁塞控制窗口的作用有兩個:

  1. 防止發送方向接收方發送了太多數據,導致接收方無法處理;
  2. 防止 TCP 連接的任意一方向網絡中發送大量數據,導致網絡擁塞崩潰;

除了擁塞窗口大小(cwnd)之外,TCP 連接的雙方都有接收窗口大小(rwnd),在 TCP 連接建立之初,發送方和接收方都不清楚對方的接收窗口大小,所以通信雙方需要一套動態的估算機制改變數據傳輸的速度,在 TCP 三次握手期間,通信雙方會通過 ACK 消息通知對方自己的接收窗口大小,接收窗口大小一般是帶寬延遲乘積(Bandwidth-delay product, BDP)決定的[^7],不過在這裡我們就不展開介紹了。


客戶端能夠同時傳輸的最大數據段的數量是接收窗口大小和擁塞窗口大小的最小值,即 min(rwnd, cwnd)。TCP 連接的初始擁塞窗口大小是一個比較小的值,在 Linux 中是由 TCP_INIT_CWND 定義的[^8]:


<code>/* TCP initial congestion window as per rfc6928 */#define TCP_INIT_CWND\t\t10/<code>

初始擁塞控制窗口的大小從出現之後被多次修改,幾個名為 Increasing TCP's Initial Window 的 RFC 文檔:RFC2414[^9]、RFC3390[^10] 和 RFC6928[^11] 分別增加了 initcwnd 的值以適應不斷提高的網絡傳輸速度和帶寬。

TCP 協議快被淘汰了,UDP 協議才是新世代的未來?

tcp-congestion-window

圖 2 - TCP 擁塞控制窗口的線増積減

如上圖所示,TCP 連接發送方的擁塞控制窗口大小會根據接收方的響應而變化:

  1. 線性增長:當發送方收到了接收方的 ACK 時,擁塞窗口大小會加一;
  2. 積式減少:當發送方發送的數據包丟包時,擁塞控制窗口會減半;

如果 TCP 連接剛剛建立,由於 Linux 系統的默認設置,客戶端能夠同時發送 10 個數據段,假設我們網絡的帶寬是 10M,RTT 是 40ms,每個數據段的大小是 1460 字節,那麼使用 BDP 計算的通信雙方窗口大小上限應該是 35,這樣才能充分利用網絡的帶寬:

TCP 協議快被淘汰了,UDP 協議才是新世代的未來?

然而擁塞控制窗口的大小從 10 漲到 35 需要 2RTT 的時間,具體的過程如下:

  1. 發送方向接收方發送 initcwnd = 10 個數據段(消耗 0.5RTT);
  2. 接收方接收到 10 個數據段後向發送方發送 ACK(消耗 0.5RTT);
  3. 發送方接收到發送方的 ACK,擁塞控制窗口大小由於 10 個數據段的成功發送 +10,當前擁塞控制窗口大小達到 20;
  4. 發送方向接收方發送 20 個數據段(消耗 0.5RTT);
  5. 接收方接收到 20 個數據段後向發送方發送 ACK(消耗 0.5RTT);
  6. 發送方接收到發送方的 ACK,擁塞控制窗口大小由於 20 個數據段的成功發送 +20,當前擁塞控制窗口大小達到 40;

從 TCP 三次握手建立連接到擁塞控制窗口大小達到假定網絡狀況的最大值 35 需要 3.5RTT 的時間,即 140ms,這是一個比較長的時間了。

早期互聯網的大多數計算設備都通過有線網絡連接,出現網絡不穩定的可能性也比較低,所以 TCP 協議的設計者認為丟包意味著網絡出現擁塞,一旦發生丟包,客戶端瘋狂重試就可能導致互聯網的擁塞崩潰,所以發明了擁塞控制算法來解決該問題。

但是如今的網絡環境更加複雜,無線網絡的引入導致部分場景下的網絡不穩定成了常態,所以丟包並不一定意味著網絡擁堵,如果使用更加激進的策略傳輸數據,在一些場景下會得到更好的效果。

三次握手

TCP 使用三次握手建立連接應該是全世界所有工程師都十分了解的知識點,三次握手的主要目的是避免歷史錯誤連接的建立並讓通信的雙方確定初始序列號[^12],然而三次握手的成本相當高,在不丟包的情況下,它需要建立 TCP 連接的雙方進行三次通信。

TCP 協議快被淘汰了,UDP 協議才是新世代的未來?

basic-3-way-handshake

圖 3 - 常見的 TCP 三次握手

如果我們要從北京訪問上海的服務器,由於北京到上海的直線距離約為 1000 多公里,而光速是目前通信速度的極限,所以 RTT 一定會大於 6.7ms:


然而因為光在光纖中不是直線傳播的,真正的傳輸速度會比光速慢 ~31%[^13],而且數據需要在各種網絡設備之間來回跳轉,所以很難達到理論的極限值。在生產環境中從北京到上海的 RTT 大概在 40ms 左右,所以 TCP 建立連接所需要最短時間也需要 60ms(1.5RTT)。

在網絡環境較差的地鐵、車站等場景中,因為丟包率較高,客戶端很難與服務端快速完成三次通信並建立 TCP 連接。當客戶端長時間沒有收到服務端的響應時,只能不斷髮起重試,隨著請求次數逐漸增加,訪問的延遲也會越來越高。

由於大多數的 HTTP 請求都不會攜帶大量的數據,未被壓縮的請求和響應頭大小在 ~200B 到 2KB 左右,而 TCP 三次握手帶來的額外開銷是 222 字節,其中以太網數據幀佔 3 * 14 = 42 字節,IP 數據幀佔 3 * 20 = 60 字節,TCP 數據幀佔 120 字節:

TCP 協議快被淘汰了,UDP 協議才是新世代的未來?

tcp-three-way-handshake-overhead

圖 4 - TCP 三次握手的額外開銷

雖然 TCP 不會為每一個發出的數據段建立連接,但是三次握手建立連接需要的成本還是相當高,不僅需要額外增加 1.5RTT 的網絡延時,還需要增加 222 字節的額外開銷,所以在弱網環境下,通過三次握手建立連接會加劇 TCP 的性能問題。

重傳機制

TCP 傳輸的可靠性是通過序列號和接收方的 ACK 來保證的,當 TCP 傳輸一個數據段時,它會將該數據段的副本放到重傳隊列上並開啟計時器[^14]:

  • 如果發送方收到了該數據段對應的 ACK 響應,當前數據段就會從重傳隊列中刪除;
  • 如果發送方在計時器到期之間都沒有收到該數據段對應的 ACK,就會重新發送當前數據段;

TCP 的 ACK 機制可能會導致發送方重新傳輸接收方已經收到了數據段。TCP 中的 ACK 消息表示該消息之前的全部消息都已經被成功接收和處理,例如:

  1. 發送方向接收方發送了序號為 1-10 的消息;
  2. 接收方向發送方發送 ACK 8 響應;
  3. 發送方認為序號為 1-8 的消息已經被成功接收;

這種 ACK 的方式在實現上比較簡單,更容易保證消息的順序性,但是在以下情況可能會導致發送方重傳已經接收的數據:

TCP 協議快被淘汰了,UDP 協議才是新世代的未來?

tcp-retransmission-al

圖 5 - TCP 的重傳策略

如上圖所示,接收方已經收到了序號為 2-5 的數據,但是由於 TCP ACK 的語義是當前數據段前的全部數據段都已經被接收和處理,所以接收方無法發送 ACK 消息,由於發送方沒有收到 ACK,所有數據段

對應的計時器就會超時並重新傳輸數據。在丟包較為嚴重的網絡下,這種重傳機制會造成大量的帶寬浪費。

總結

TCP 協議的一些設計在今天來看雖然仍然具有巨大的價值,但是並不能適用於所有場景。為了解決 TCP 的性能問題,目前業界有兩種解決方案:

  1. 使用 UDP 構建性能更加優異、更靈活的傳輸協議,例如:QUIC[^15] 等;
  2. 通過不同的手段優化 TCP 協議的性能,例如:選擇性 ACK(Selective ACK, SACK)[^16],TCP 快開啟(TCP Fast Open, TFO)[^17];

由於 TCP 協議在操作系統內核中,不利於協議的更新,所以第一種方案目前發展的更好,HTTP/3 就使用了 QUIC 作為傳輸協議[^18]。我們在這裡重新回顧一下導致 TCP 性能問題的三個重要原因:

  • TCP 的擁塞控制在發生丟包時會進行退讓,減少能夠發送的數據段數量,但是丟包並不一定意味著網絡擁塞,更多的可能是網絡狀況較差;
  • TCP 的三次握手帶來了額外開銷,這些開銷不只包括需要傳輸更多的數據,還增加了首次傳輸數據的網絡延遲;
  • TCP 的重傳機制在數據包丟失時可能會重新傳輸已經成功接收的數據段,造成帶寬的浪費;

TCP 協議作為互聯網數據傳輸的基石可以說是當之無愧,雖然它確實在應對特殊場景時有些問題,但是它的設計思想有著非常多的借鑑意義並值得我們學習。

到最後,我們還是來看一些比較開放的相關問題,有興趣的讀者可以仔細思考一下下面的問題:

  • QUIC 協議是能否保證丟包率較高時的傳輸性能?
  • 除了 SACK 和 TFO 之外還有哪些手段可以優化 TCP 的性能?


分享到:


相關文章: