5 分鐘學會 Nginx 負載均衡

陸陽陽,微醫前端技術部前端開發工程師,做一條安靜的鹹魚。

前言

這篇文章需要一點點的 nginx 基礎知識~

不會也沒關係,先給各位貼一個最簡單的 nginx.conf 配置,看完就會

    
http {
    include       mime.types;
    default_type  application/octet-stream;
    sendfile        on;
    keepalive_timeout  65;
    server {

        listen       8081;
        server_name  localhost;

        location / {
            proxy_pass      http://0.0.0.0:9000;
        }

        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }
}

並且起一個最簡單的 node 服務:

const http = require('http');
const server = http.createServer();
const host = '0.0.0.0'
const port = 9000
let n = 0
server.on('request'function (req, res) {
  n += 1
  console.log('請求來了: ', n)
  res.write('Hello World!!!');
  res.end();
});
server.listen(port, host, function () {
  console.log(`服務器啓動了,請訪問:http://${host}:${port}`);
})

訪問 http://localhost:8081/nginx 已經能把請求正常打到 node 9000  端口的服務了

接下來進入正題,講講負載均衡了~

什麼是負載均衡

舉個例子,工地上新到了一車磚,老闆要求天黑之前需要搬完。但是工地上只有一個工人,這種情況下每趟要搬 1000 斤纔有可能在天黑前搬完。但是如果 1000 斤的磚扛在肩上,那這個工人一下就被打死了。這個時候包工頭另外招了兩個人,三個人一起幹,每個人扛 300 斤,那大家都很輕鬆的把活幹完了,沒人會死。

放到服務器上也是同樣的道理。現在假設每秒鐘有 1000 個請求,一臺服務器處理不過來,分分鐘會掛掉。我們把服務器加到 3 臺,這樣每臺處理 300 個,每臺都輕輕鬆鬆。

那麼問題來了,三個工人的身體強弱是有區別的。包工頭在安排活的時候是做到絕對的公平每人背 300 斤?還是按照實工人實際身體情況,能者多勞?

服務器也是一樣的道理,不同的服務器處理能力是不一樣的。nginx 負載均衡 做的事情就是根據服務器的能力去 平衡 大量請求到達各個服務器的數量。這裏的 平衡 並不是絕對的 平均,具體怎麼樣去平衡請求,我們可以根據自己的需求去設置不同的 平衡策略

負載均衡策略

輪詢策略(默認)

按照上面講的,要玩負載均衡,首先得是多臺機器,一臺也玩不起來啊。但是條件有限,我這邊在不同端口起多個相同的 node 服務來表示多臺機器:

如上圖,三個服務完全相同,分別用 900090019002 端口啓動,接下來修改 nginx.conf 文件,nginx 負載均衡 主要是通過配置 upstream 來實現的:

    
http {
    include       mime.types;
    default_type  application/octet-stream;
    sendfile        on;
    keepalive_timeout  65;
    
    upstream test {
 server 0.0.0.0:9000;
 server 0.0.0.0:9001; 
 server 0.0.0.0:9002;
    }
    
    server {

        listen       8081;
        server_name  localhost;

        location / {
            proxy_pass      http://test;
        }

        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }
}

從上面代碼可以看出,改動是比較簡單的,增加了一個 upsteam 配置。這個是最簡單的 輪詢策略,大量請求打過來後,nginx 將這些請求 平均 分配到 3 臺服務器上。接下來我們通過工具批量發送 600 個請求, 來測試下我們的配置是否生效:

從結果來看符合預期, 每個服務處理 200 個請求。

加權輪詢策略

這個也很簡單,從名字可以猜出來一些,這個是按照我們指定的權重來輪詢,nginx.conf 修改如下:

    
http {
    include       mime.types;
    default_type  application/octet-stream;
    sendfile        on;
    keepalive_timeout  65;
    
    upstream test {
 server 0.0.0.0:9000 weight=2;
 server 0.0.0.0:9001 weight=1; 
 server 0.0.0.0:9002 weight=1;
    }
    
    server {

        listen       8081;
        server_name  localhost;

        location / {
            proxy_pass      http://test;
        }

        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }
}

我們在每個服務地址後面加上 weight 參數來表示權重, 這裏的意思是 9000 端口處理50%的請求, 9001 端口處理25%的請求, 9002 端口處理25%的請求。

再來測試下,批量發送 100 個請求看看結果:

符合預期

ip_hash 策略

這個也很簡單,看名字也能猜出來一點,根據 ip 來分配請求。固定的客戶端發出的請求會被固定分配到一臺服務器。接着修改 nginx.conf 配置

    
http {
    include       mime.types;
    default_type  application/octet-stream;
    sendfile        on;
    keepalive_timeout  65;
    
    upstream test {
        ip_hash;
 server 0.0.0.0:9000;
 server 0.0.0.0:9001; 
 server 0.0.0.0:9002;
    }
    
    server {

        listen       8081;
        server_name  localhost;

        location / {
            proxy_pass      http://test;
        }

        error_page   500 502 503 504  /50x.html;
        location = /50x.html {w
            root   html;
        }
    }
}

這裏還是因爲條件不允許,照理要用多個客戶端來訪問,並在控制檯打出 ip 來看結果,但是我只有本機一臺機器,所以做不了這個實驗。

用迂迴一點的方式來驗證下,既然是根據 ip 來分配請求的,那我本機發 100 個請求,這 100 個請求應該會被打到同一臺服務器上,另外兩臺接收到的請求數量爲 0,來測試下:

從結果來看也是符合預期的,這裏只有 9002 端口起的服務收到了 100 個請求,其他兩個服務收到的請求數量爲 0

總結

雖然短小了點,但是花5分鐘應該能完全看懂 nginx 負載均衡 了,以後再也不怕別人裝逼了~

本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://mp.weixin.qq.com/s/4O9LasVtDI-b88qygWqJVQ