高性能網絡編程:單台伺服器TCP最大並發連結數

曾幾何時,我還在尋求網絡編程中C10K問題的解決方案,但是現在從硬件和操作系統支持來看單臺服務器支持上萬併發連接已經沒有多少挑戰性了。

我們先假設單臺服務器最多隻能支持萬級併發連接,其實對絕大多數應用來說已經遠遠足夠了,但是對於一些擁有很大用戶基數的互聯網公司,往往面臨的併發連接數是百萬、千萬、甚至騰訊的上億(注:QQ默認用的UDP協議,我們在後面的文章討論)。

雖然現在的集群,分佈式技術可以為我們將併發負載分擔在多臺服務器上,那我們只需要擴展出數十臺電腦就可以解決問題,但是我們更希望能更大的挖掘單臺服務器的資源,先努力垂直擴展,再進行水平擴展,這樣可以有效的節省服務器相關的開支(硬件資源、機房、運維人力、電力其實也是一筆不小的開支)。

那麼到底一臺服務器能夠支持多少TCP併發連接呢?這就是本文要討論的問題

高性能網絡編程:單臺服務器TCP最大併發鏈接數

常識一:文件句柄限制

在linux下編寫網絡服務器程序的朋友肯定都知道每一個tcp連接都要佔一個文件描述符,一旦這個文件描述符使用完了,新的連接到來返回給我們的錯誤是“Socket/File:Can't open so many files”。

這時你需要明白操作系統對可以打開的最大文件數的限制。

1進程限制

執行 ulimit -n 輸出 1024,說明對於一個進程而言最多隻能打開1024個文件,所以你要採用此默認配置最多也就可以併發上千個TCP連接。臨時修改:ulimit -n 1000000,但是這種臨時修改只對當前登錄用戶目前的使用環境有效,系統重啟或用戶退出後就會失效。

重啟後失效的修改(不過我在CentOS 6.5下測試,重啟後未發現失效),編輯 /etc/security/limits.conf 文件, 修改後內容為:

soft nofile 1000000

hard nofile 1000000

永久修改:編輯/etc/rc.local,在其後添加如下內容:

ulimit -SHn 1000000

2全侷限制

執行 cat /proc/sys/fs/file-nr 輸出 9344 0 592026,分別為:

1. 已經分配的文件句柄數,

2. 已經分配但沒有使用的文件句柄數,

3. 最大文件句柄數。

但在kernel 2.6版本中第二項的值總為0,這並不是一個錯誤,它實際上意味著已經分配的文件描述符無一浪費的都已經被使用了 。

我們可以把這個數值改大些,用 root 權限修改 /etc/sysctl.conf 文件:

fs.file-max = 1000000

net.ipv4.ip_conntrack_max = 1000000

net.ipv4.netfilter.ip_conntrack_max = 1000000

常識二:端口號範圍限制?

操作系統上端口號1024以下是系統保留的,從1024-65535是用戶使用的。由於每個TCP連接都要佔一個端口號,所以我們最多可以有60000多個併發連接。我想有這種錯誤思路朋友不在少數吧?(其中我過去就一直這麼認為)

我們來分析一下吧。

如何標識一個TCP連接:

系統用一個4四元組來唯一標識一個TCP連接:{local ip, local port,remote ip,remote port}。好吧,我們拿出《UNIX網絡編程:卷一》第四章中對accept的講解來看看概念性的東西,第二個參數cliaddr代表了客戶端的ip地址和端口號。而我們作為服務端實際只使用了bind時這一個端口,說明端口號65535並不是併發量的限制。

server最大tcp連接數:

server通常固定在某個本地端口上監聽,等待client的連接請求。不考慮地址重用(unix的SO_REUSEADDR選項)的情況下,即使server端有多個ip,本地監聽端口也是獨佔的,因此server端tcp連接4元組中只有remote ip(也就是client ip)和remote port(客戶端port)是可變的,因此最大tcp連接為客戶端ip數×客戶端port數,對IPV4,不考慮ip地址分類等因素,最大tcp連接數約為2的32次方(ip數)×2的16次方(port數),也就是server端單機最大tcp連接數約為2的48次方。

本文小結

上面給出的結論都是理論上的單機TCP併發連接數,實際上單機併發連接數肯定要受硬件資源(內存)、網絡資源(帶寬)的限制,至少對我們的需求現在可以做到數十萬級的併發了,你的呢?

喜歡我的文章的話,就關注我吧!不要只收藏和轉發哦,每天至少兩篇編程知識給大家,都是本人多年的經驗總結!


分享到:


相關文章: