通過調整 Linux 內核參數提升網絡性能

如果服務器壓力不大, 那麼維持默認即可.

下述內容取材於”Performance Tuning For Linux Server” 一書.

$ /proc/sys/net/core/wmem_max

最大 socket 寫 buffer, 可參考的優化值: 873200

$ /proc/sys/net/core/rmem_max

最大 socket 讀 buffer, 可參考的優化值: 873200

$ /proc/sys/net/ipv4/tcp_wmem

TCP 寫 buffer, 可參考的優化值: 8192 436600 873200

$ /proc/sys/net/ipv4/tcp_rmem

TCP 讀 buffer, 可參考的優化值: 32768 436600 873200

$ /proc/sys/net/ipv4/tcp_mem

同樣有 3 個值, 意思是: net.ipv4.tcp_mem[0]: 低於此值, TCP 沒有內存壓力

net.ipv4.tcp_mem[1]: 在此值下, 進入內存壓力階段.

net.ipv4.tcp_mem[2]: 高於此值, TCP 拒絕分配 socket.

上述內存單位是頁, 而不是字節.

可參考的優化值是: 786432 1048576 1572864

$ /proc/sys/net/core/netdev_max_backlog

進入包的最大設備隊列. 默認是 300, 對重負載服務器而言, 該值太低, 可調整到 1000.

$ /proc/sys/net/core/somaxconn

listen() 的默認參數, 掛起請求的最大數量. 默認是 128. 對繁忙的服務器, 增加該值有助於網絡性能. 可調整到 256.

$ /proc/sys/net/core/optmem_max

socket buffer 的最大初始化值, 默認 10K.

$ /proc/sys/net/ipv4/tcp_max_syn_backlog

進入 SYN 包的最大請求隊列. 默認 1024. 對重負載服務器, 增加該值顯然有好處. 可調整到 2048.

$ /proc/sys/net/ipv4/tcp_retries2

TCP 失敗重傳次數, 默認值 15, 意味着重傳 15 次才徹底放棄. 可減少到 5, 以儘早釋放內核資源.

$ /proc/sys/net/ipv4/tcp_keepalive_time
$ /proc/sys/net/ipv4/tcp_keepalive_intvl
$ /proc/sys/net/ipv4/tcp_keepalive_probes

這 3 個參數與 TCP KeepAlive 有關. 默認值是:

tcp_keepalive_time = 7200 seconds (2 hours)

tcp_keepalive_probes = 9

tcp_keepalive_intvl = 75 seconds

意思是如果某個 TCP 連接在 idle 2 個小時後, 內核才發起 probe. 如果 probe 9 次 (每次 75 秒) 不成功, 內核才徹底放棄, 認爲該連接已失效. 對服務器而言, 顯然上述值太大. 可調整到:

/proc/sys/net/ipv4/tcp_keepalive_time 1800

/proc/sys/net/ipv4/tcp_keepalive_intvl 30

/proc/sys/net/ipv4/tcp_keepalive_probes 3

$ proc/sys/net/ipv4/ip_local_port_range

指定端口範圍的一個配置, 默認是 32768 61000, 已夠大.

原文:http://butian.org/knowledge/linux/1402.html

本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://my.oschina.net/u/1176559/blog/1082921