通過調整 Linux 內核參數提升網絡性能
如果服務器壓力不大, 那麼維持默認即可.
下述內容取材於”Performance Tuning For Linux Server” 一書.
$ /proc/sys/net/core/wmem_max
最大 socket 寫 buffer, 可參考的優化值: 873200
$ /proc/sys/net/core/rmem_max
最大 socket 讀 buffer, 可參考的優化值: 873200
$ /proc/sys/net/ipv4/tcp_wmem
TCP 寫 buffer, 可參考的優化值: 8192 436600 873200
$ /proc/sys/net/ipv4/tcp_rmem
TCP 讀 buffer, 可參考的優化值: 32768 436600 873200
$ /proc/sys/net/ipv4/tcp_mem
同樣有 3 個值, 意思是: net.ipv4.tcp_mem[0]: 低於此值, TCP 沒有內存壓力
net.ipv4.tcp_mem[1]: 在此值下, 進入內存壓力階段.
net.ipv4.tcp_mem[2]: 高於此值, TCP 拒絕分配 socket.
上述內存單位是頁, 而不是字節.
可參考的優化值是: 786432 1048576 1572864
$ /proc/sys/net/core/netdev_max_backlog
進入包的最大設備隊列. 默認是 300, 對重負載服務器而言, 該值太低, 可調整到 1000.
$ /proc/sys/net/core/somaxconn
listen() 的默認參數, 掛起請求的最大數量. 默認是 128. 對繁忙的服務器, 增加該值有助於網絡性能. 可調整到 256.
$ /proc/sys/net/core/optmem_max
socket buffer 的最大初始化值, 默認 10K.
$ /proc/sys/net/ipv4/tcp_max_syn_backlog
進入 SYN 包的最大請求隊列. 默認 1024. 對重負載服務器, 增加該值顯然有好處. 可調整到 2048.
$ /proc/sys/net/ipv4/tcp_retries2
TCP 失敗重傳次數, 默認值 15, 意味着重傳 15 次才徹底放棄. 可減少到 5, 以儘早釋放內核資源.
$ /proc/sys/net/ipv4/tcp_keepalive_time
$ /proc/sys/net/ipv4/tcp_keepalive_intvl
$ /proc/sys/net/ipv4/tcp_keepalive_probes
這 3 個參數與 TCP KeepAlive 有關. 默認值是:
tcp_keepalive_time = 7200 seconds (2 hours)
tcp_keepalive_probes = 9
tcp_keepalive_intvl = 75 seconds
意思是如果某個 TCP 連接在 idle 2 個小時後, 內核才發起 probe. 如果 probe 9 次 (每次 75 秒) 不成功, 內核才徹底放棄, 認爲該連接已失效. 對服務器而言, 顯然上述值太大. 可調整到:
/proc/sys/net/ipv4/tcp_keepalive_time 1800
/proc/sys/net/ipv4/tcp_keepalive_intvl 30
/proc/sys/net/ipv4/tcp_keepalive_probes 3
$ proc/sys/net/ipv4/ip_local_port_range
指定端口範圍的一個配置, 默認是 32768 61000, 已夠大.
原文:http://butian.org/knowledge/linux/1402.html
本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源:https://my.oschina.net/u/1176559/blog/1082921