linux 上 numa 架構介紹
準備環境
以下案例基於 Ubuntu 16.04,同樣適用於其他的 Linux 系統。我使用的案例環境如下所示:
- 機器配置:32 CPU,64GB 內存
在 NUMA 中儲存層次的概念:
**以鯤鵬 920 處理器講一下 cpu 芯片的的構成:**鯤鵬 920 處理器片上系統的每個超級內核集羣包含 6 個內核集羣、2 個 I/O 集羣和 4 個 DDR 控制器。每個超級內核集羣封裝成一個 CPU 晶片。每個晶片上集成了 4 個 72 位(64 位數據加 8 位 ECC)、數據傳輸率最高爲 3200MT/s 的高速 DDR4 通道,單晶片可支持最多 512GB×4 的 DDR 存儲空間。L3 Cache 在物理上被分爲兩部分:L3 Cache TAG 和 L3 Cache DATA。L3 Cache TAG 集成在每個內核集羣中,以降低監聽延遲。L3 Cache DATA 則直接連接片上總線。Hydra 根代理(Hydra Home Agent,HHA)是處理多芯片系統 Cache 一致性協議的模塊。POE_ICL 是系統配置的硬件加速器,一般可以用作分組順序整理器、消息隊列、消息分發或者實現某個處理器內核的特定任務等。此外,每個超級內核集羣在物理上還配置了一個通用中斷控制器分發器(GICD)模塊,兼容 ARM 的 GICv4 規範。當單芯片或多芯片系統中有多個超級內核集羣時,只有一個 GICD 對系統軟件可見。
numactl 的使用
Linux 提供了一個一個手工調優的命令 numactl(默認不安裝),在 Ubuntu 上的安裝命令如下:
sudo apt install numactl -y
首先你可以通過 man numactl 或者 numactl --h 瞭解參數的作用與輸出的內容。查看系統的 numa 狀態:
numactl --hardware
運行得到如下的結果:
available: 4 nodes (0-3)
node 0 cpus: 0 1 2 3 4 5 6 7
node 0 size: 16047 MB
node 0 free: 3937 MB
node 1 cpus: 8 9 10 11 12 13 14 15
node 1 size: 16126 MB
node 1 free: 4554 MB
node 2 cpus: 16 17 18 19 20 21 22 23
node 2 size: 16126 MB
node 2 free: 8403 MB
node 3 cpus: 24 25 26 27 28 29 30 31
node 3 size: 16126 MB
node 3 free: 7774 MB
node distances:
node 0 1 2 3
0: 10 20 20 20
1: 20 10 20 20
2: 20 20 10 20
3: 20 20 20 10
-
numa_hit:是打算在該節點上分配內存,最後從這個節點分配的次數;
-
numa_miss:是打算在該節點分配內存,最後卻從其他節點分配的次數;
-
numa_foreign:是打算在其他節點分配內存,最後卻從這個節點分配的次數;
-
interleave_hit :採用 interleave 策略最後從本節點分配的次數
-
local_node:該節點上的進程在該節點上分配的次數
-
other_node:是其他節點進程在該節點上分配的次數
注:如果發現 numa_miss 數值比較高時,說明需要對分配策略進行調整。例如將指定進程關聯綁定到指定的 CPU 上,從而提高內存命中率。
root@ubuntu:~# numastat
node0 node1 node2 node3
numa_hit 19480355292 11164752760 12401311900 12980472384
numa_miss 5122680 122652623 88449951 7058
numa_foreign 122652643 88449935 7055 5122679
interleave_hit 12619 13942 14010 13924
local_node 19480308881 11164721296 12401264089 12980411641
other_node 5169091 122684087 88497762 67801
NUMA 的內存分配策略
--localalloc 或者 - l:規定進程從本地節點上請求分配內存。--membind=nodes 或者 - m nodes:規定進程只能從指定的 nodes 上請求分配內存。--preferred=node:指定一個推薦的 node 來獲取內存,如果獲取失敗,則嘗試別的 node。--interleave=nodes 或者 - i nodes:規定進程從指定的 nodes 上,以 round robin 算法交織地請求內存分配。
numactl --interleave=all mongod -f /etc/mongod.conf
因爲 NUMA 默認的內存分配策略是優先在進程所在 CPU 的本地內存中分配,會導致 CPU 節點之間內存分配不均衡,當開啓了 swap,某個 CPU 節點的內存不足時,會導致 swap 產生,而不是從遠程節點分配內存。這就是所謂的 swap insanity 現象。或導致性能急劇下降。所以在運維層面,我們也需要關注 NUMA 架構下的內存使用情況(多個內存節點使用可能不均衡),併合理配置系統參數(內存回收策略 / Swap 使用傾向),儘量去避免使用到 Swap。
Node->Socket->Core->Processor
隨着多核技術的發展,將多個 CPU 封裝在一起,這個封裝被稱爲插槽 Socket;Core 是 socket 上獨立的硬件單元;通過 intel 的超線程 HT 技術進一步提升 CPU 的處理能力,OS 看到的邏輯上的核 Processor 數量。
Socket = Node
Socket 是物理概念,指的是主板上 CPU 插槽;Node 是邏輯概念,對應於 Socket。
Core = 物理 CPU
Core 是物理概念,一個獨立的硬件執行單元,對應於物理 CPU;
Thread = 邏輯 CPU = Processor
Thread 是邏輯 CPU,也就是 Processo
lscpu 的使用
顯示格式:
-
Architecture:架構
-
CPU(s):邏輯 cpu 顆數
-
Thread(s) per core:每個核心線程,也就是指超線程
-
Core(s) per socket:每個 cpu 插槽核數 / 每顆物理 cpu 核數
-
CPU socket(s):cpu 插槽數
-
L1d cache:級緩存(google 了下,這具體表示表示 cpu 的 L1 數據緩存)
-
L1i cache:一級緩存(具體爲 L1 指令緩存)
-
L2 cache:二級緩存
-
L3 cache:三級緩存
-
NUMA node0 CPU(s) :CPU 上的邏輯核,也就是超線程
執行 lscpu,結果部分如下:
root@ubuntu:~# lscpu
Architecture: x86_64
CPU(s): 32
Thread(s) per core: 1
Core(s) per socket: 8
Socket(s): 4
L1d cache: 32K
L1i cache: 32K
L2 cache: 256K
L3 cache: 20480K
NUMA node0 CPU(s): 0-7
NUMA node1 CPU(s): 8-15
NUMA node2 CPU(s): 16-23
NUMA node3 CPU(s): 24-31
預告
下一節,我們將聊聊如何通過提升 CPU 綁核來優化程序的性能。
本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源:https://mp.weixin.qq.com/s/pEz6xus9tdd9a1HtBySwHQ