linux 上 numa 架構介紹

準備環境

以下案例基於 Ubuntu 16.04,同樣適用於其他的 Linux 系統。我使用的案例環境如下所示:

在 NUMA 中儲存層次的概念:

1)處理器層: 單個物理核,稱爲處理器層。2)本地節點層: 對於某個節點中的所有處理器,此節點稱爲本地節點。3)home 節點層: 與本地節點相鄰的節點稱爲 home 節點。4)遠程節點層: 非本地節點或鄰居節點的節點,稱爲遠程節點。CPU 訪問不同類型節點內存的速度是不相同的,訪問本地節點的速度最快,訪問遠端節點的速度最慢,即訪問速度與節點的距離有關,距離越遠訪問速度越慢,此距離稱作 Node Distance。應用程序要儘量的減少不同 CPU 模塊之間的交互,如果應用程序能有方法固定在一個 CPU 模塊裏,那麼應用的性能將會有很大的提升。

**以鯤鵬 920 處理器講一下 cpu 芯片的的構成:**鯤鵬 920 處理器片上系統的每個超級內核集羣包含 6 個內核集羣、2 個 I/O 集羣和 4 個 DDR 控制器。每個超級內核集羣封裝成一個 CPU 晶片。每個晶片上集成了 4 個 72 位(64 位數據加 8 位 ECC)、數據傳輸率最高爲 3200MT/s 的高速 DDR4 通道,單晶片可支持最多 512GB×4 的 DDR 存儲空間。L3 Cache 在物理上被分爲兩部分:L3 Cache TAG 和 L3 Cache DATA。L3 Cache TAG 集成在每個內核集羣中,以降低監聽延遲。L3 Cache DATA 則直接連接片上總線。Hydra 根代理(Hydra Home Agent,HHA)是處理多芯片系統 Cache 一致性協議的模塊。POE_ICL 是系統配置的硬件加速器,一般可以用作分組順序整理器、消息隊列、消息分發或者實現某個處理器內核的特定任務等。此外,每個超級內核集羣在物理上還配置了一個通用中斷控制器分發器(GICD)模塊,兼容 ARM 的 GICv4 規範。當單芯片或多芯片系統中有多個超級內核集羣時,只有一個 GICD 對系統軟件可見。

numactl 的使用

Linux 提供了一個一個手工調優的命令 numactl(默認不安裝),在 Ubuntu 上的安裝命令如下:

sudo apt install numactl -y

首先你可以通過 man numactl 或者 numactl --h 瞭解參數的作用與輸出的內容。查看系統的 numa 狀態:

numactl --hardware

運行得到如下的結果:

available: 4 nodes (0-3)
node 0 cpus: 0 1 2 3 4 5 6 7
node 0 size: 16047 MB
node 0 free: 3937 MB
node 1 cpus: 8 9 10 11 12 13 14 15
node 1 size: 16126 MB
node 1 free: 4554 MB
node 2 cpus: 16 17 18 19 20 21 22 23
node 2 size: 16126 MB
node 2 free: 8403 MB
node 3 cpus: 24 25 26 27 28 29 30 31
node 3 size: 16126 MB
node 3 free: 7774 MB
node distances:
node   0   1   2   3
  0:  10  20  20  20
  1:  20  10  20  20
  2:  20  20  10  20
  3:  20  20  20  10

根據這個圖與命令得到的結果,可以看到,此係統共有 4 個 node,各領取 8 個 CPU 和 16G 內存。 這裏還需要注意的就是 CPU 共享的 L3 cache 也是會自己領取相應的空間。通過 numastat 命令可以查看 numa 狀態, 返回值內容:

注:如果發現 numa_miss 數值比較高時,說明需要對分配策略進行調整。例如將指定進程關聯綁定到指定的 CPU 上,從而提高內存命中率。

root@ubuntu:~# numastat
                           node0           node1           node2           node3
numa_hit             19480355292     11164752760     12401311900     12980472384
numa_miss                5122680       122652623        88449951            7058
numa_foreign           122652643        88449935            7055         5122679
interleave_hit             12619           13942           14010           13924
local_node           19480308881     11164721296     12401264089     12980411641
other_node               5169091       122684087        88497762           67801

NUMA 的內存分配策略

--localalloc 或者 - l:規定進程從本地節點上請求分配內存。--membind=nodes 或者 - m nodes:規定進程只能從指定的 nodes 上請求分配內存。--preferred=node:指定一個推薦的 node 來獲取內存,如果獲取失敗,則嘗試別的 node。--interleave=nodes 或者 - i nodes:規定進程從指定的 nodes 上,以 round robin 算法交織地請求內存分配。

 numactl --interleave=all mongod -f /etc/mongod.conf

因爲 NUMA 默認的內存分配策略是優先在進程所在 CPU 的本地內存中分配,會導致 CPU 節點之間內存分配不均衡,當開啓了 swap,某個 CPU 節點的內存不足時,會導致 swap 產生,而不是從遠程節點分配內存。這就是所謂的 swap insanity 現象。或導致性能急劇下降。所以在運維層面,我們也需要關注 NUMA 架構下的內存使用情況(多個內存節點使用可能不均衡),併合理配置系統參數(內存回收策略 / Swap 使用傾向),儘量去避免使用到 Swap。

Node->Socket->Core->Processor

隨着多核技術的發展,將多個 CPU 封裝在一起,這個封裝被稱爲插槽 Socket;Core 是 socket 上獨立的硬件單元;通過 intel 的超線程 HT 技術進一步提升 CPU 的處理能力,OS 看到的邏輯上的核 Processor 數量。

Socket = Node

Socket 是物理概念,指的是主板上 CPU 插槽;Node 是邏輯概念,對應於 Socket。

Core = 物理 CPU

Core 是物理概念,一個獨立的硬件執行單元,對應於物理 CPU;

Thread = 邏輯 CPU = Processor

Thread 是邏輯 CPU,也就是 Processo

lscpu 的使用

顯示格式:

執行 lscpu,結果部分如下:

root@ubuntu:~# lscpu
Architecture:          x86_64
CPU(s):                32
Thread(s) per core:    1
Core(s) per socket:    8
Socket(s):             4
L1d cache:             32K
L1i cache:             32K
L2 cache:              256K
L3 cache:              20480K
NUMA node0 CPU(s):     0-7
NUMA node1 CPU(s):     8-15
NUMA node2 CPU(s):     16-23
NUMA node3 CPU(s):     24-31

預告

下一節,我們將聊聊如何通過提升 CPU 綁核來優化程序的性能。

本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://mp.weixin.qq.com/s/pEz6xus9tdd9a1HtBySwHQ