sync-Pool:提高 Go 語言程序性能的關鍵一步

作者:starrySky

https://juejin.cn/post/7219249005904445477

1. 簡介

本文將介紹 Go 語言中的 sync.Pool併發原語,包括sync.Pool的基本使用方法、使用注意事項等的內容。能夠更好得使用sync.Pool來減少對象的重複創建,最大限度實現對象的重複使用,減少程序 GC 的壓力,以及提升程序的性能。

2. 問題引入

2.1 問題描述

這裏我們實現一個簡單的 JSON 序列化器,能夠實現將一個map[string]int序列化爲一個 JSON 字符串,實現如下:

func IntToStringMap(m map[string]int) (string, error) {
   // 定義一個bytes.Buffer,用於緩存數據
   var buf bytes.Buffer
   buf.Write([]byte("{"))
   for k, v := range m {
      buf.WriteString(fmt.Sprintf(`"%s":%d,`, k, v))
   }
   if len(m) > 0 {
      buf.Truncate(buf.Len() - 1) // 去掉最後一個逗號
   }
   buf.Write([]byte("}"))
   return buf.String(), nil
}

這裏使用bytes.Buffer 來緩存數據,然後按照key:value的形式,將數據生成一個字符串,然後返回,實現是比較簡單的。

每次調用IntToStringMap方法時,都會創建一個bytes.Buffer來緩存中間結果,而bytes.Buffer其實是可以被重用的,因爲序列化規則和其並沒有太大的關係,其只是作爲一個緩存區來使用而已。

但是當前的實現爲每次調用IntToStringMap時,都會創建一個bytes.Buffer, 如果在一個應用中,請求併發量非常高時,頻繁創建和銷燬bytes.Buffer將會帶來較大的性能開銷,會導致對象的頻繁分配和垃圾回收,增加了內存使用量和垃圾回收的壓力。

那有什麼方法能夠讓bytes.Buffer能夠最大程度得被重複利用呢,避免重複的創建和回收呢?

2.2 解決方案

其實我們可以發現,爲了讓bytes.Buffer能夠被重複利用,避免重複的創建和回收,我們此時只需要將bytes.Buffer緩存起來,在需要時,將其從緩存中取出;當用完後,便又將其放回到緩存池當中。這樣子,便不需要每次調用IntToStringMap方法時,就創建一個bytes.Buffer

這裏我們可以自己實現一個緩存池,當需要對象時,可以從緩存池中獲取,當不需要對象時,可以將對象放回緩存池中。IntToStringMap方法需要bytes.Buffer時,便從該緩存池中取,當用完後,便重新放回緩存池中,等待下一次的獲取。下面是一個使用切片實現的一個bytes.Buffer緩存池。

type BytesBufferPool struct {
   mu   sync.Mutex
   pool []*bytes.Buffer
}

func (p *BytesBufferPool) Get() *bytes.Buffer {
   p.mu.Lock()
   defer p.mu.Unlock()
   n := len(p.pool)
   if n == 0 {
      // 當緩存池中沒有對象時,創建一個bytes.Buffer
      return &bytes.Buffer{}
   }
   // 有對象時,取出切片最後一個元素返回
   v := p.pool[n-1]
   p.pool[n-1] = nil
   p.pool = p.pool[:n-1]
   return v
}

func (p *BytesBufferPool) Put(buffer *bytes.Buffer) {
   if buffer == nil {
      return
   }
   // 將bytes.Buffer放入到切片當中
   p.mu.Lock()
   defer p.mu.Unlock()
   obj.Reset()
   p.pool = append(p.pool, buffer)
}

上面BytesBufferPool實現了一個bytes.Buffer的緩存池,其中Get方法用於從緩存池中取對象,如果沒有對象,就創建一個新的對象返回;Put方法用於將對象重新放入BytesBufferPool當中,下面使用BytesBufferPool來優化IntToStringMap

// 首先定義一個BytesBufferPool
var buffers BytesBufferPool

func IntToStringMap(m map[string]int) (string, error) {
   // bytes.Buffer不再自己創建,而是從BytesBufferPool中取出
   buf := buffers.Get()
   // 函數結束後,將bytes.Buffer重新放回緩存池當中
   defer buffers.Put(buf)
   buf.Write([]byte("{"))
   for k, v := range m {
      buf.WriteString(fmt.Sprintf(`"%s":%d,`, k, v))
   }
   if len(m) > 0 {
      buf.Truncate(buf.Len() - 1) // 去掉最後一個逗號
   }
   buf.Write([]byte("}"))
   return buf.String(), nil
}

到這裏我們通過自己實現了一個緩存池,成功對InitToStringMap函數進行了優化,減少了bytes.Buffer對象頻繁的創建和回收,在一定程度上提高了對象的頻繁創建和回收。

但是,BytesBufferPool這個緩存池的實現,其實存在幾點問題,其一,只能用於緩存bytes.Buffer對象;其二,不能根據系統的實際情況,動態調整對象池中緩存對象的數量。假如某段時間併發量較高,bytes.Buffer對象被大量創建,用完後,重新放回BytesBufferPool之後,將永遠不會被回收,這有可能導致內存浪費,嚴重一點,也會導致內存泄漏。

既然自定義緩存池存在這些問題,那我們不禁要問,Go 語言標準庫中有沒有提供了更方便的方式,來幫助我們緩存對象呢?

別說,還真有,Go 標準庫提供了sync.Pool,可以用來緩存那些需要頻繁創建和銷燬的對象,而且它支持緩存任何類型的對象,同時sync.Pool是可以根據系統的實際情況來調整緩存池中對象的數量,如果一個對象長時間未被使用,此時將會被回收掉。

相對於自己實現的緩衝池,sync.Pool的性能更高,充分利用多核 cpu 的能力,同時也能夠根據系統當前使用對象的負載,來動態調整緩衝池中對象的數量,而且使用起來也比較簡單,可以說是實現無狀態對象緩存池的不二之選。

下面我們來看看sync.Pool的基本使用方式,然後將其應用到IntToStringMap方法的實現當中。

3. 基本使用

3.1 使用方式

3.1.1 sync.Pool 的基本定義

sync.Pool的定義如下: 提供了Get,Put兩個方法:

type Pool struct {
  noCopy noCopy

  local     unsafe.Pointer // local fixed-size per-P pool, actual type is [P]poolLocal
  localSize uintptr        // size of the local array

  victim     unsafe.Pointer // local from previous cycle
  victimSize uintptr        // size of victims array

  New func() any
}
func (p *Pool) Put(x any) {}
func (p *Pool) Get() any {}

3.1.2 使用方式

當使用sync.Pool時,通常需要以下幾個步驟:

下面是一個簡單的代碼的示例,展示了使用sync.Pool大概的代碼結構:

type struct data{
    // 定義一些屬性
}
//1. 創建一個data對象的緩存池
var dataPool = sync.Pool{New: func() interface{} {
   return &data{}
}}

func Operation_A(){
    // 2. 需要用到data對象的地方,從緩存池中取出
    d := dataPool.Get().(*data)
    // 執行後續操作
    // 3. 將對象重新放入緩存池中
    dataPool.Put(d)
}

3.2 使用例子

下面我們使用sync.Pool來對IntToStringMap進行改造,實現對bytes.Buffer對象的重用,同時也能夠自動根據系統當前的狀況,自動調整緩衝池中對象的數量。

// 1. 定義一個bytes.Buffer的對象緩衝池
var buffers sync.Pool = sync.Pool{
   New: func() interface{} {
      return &bytes.Buffer{}
   },
}
func IntToStringMap(m map[string]int) (string, error) {
   // 2. 在需要的時候,從緩衝池中取出一個bytes.Buffer對象
   buf := buffers.Get().(*bytes.Buffer)
   buf.Reset()
   // 3. 用完之後,將其重新放入緩衝池中
   defer buffers.Put(buf)
   buf.Write([]byte("{"))
   for k, v := range m {
      buf.WriteString(fmt.Sprintf(`"%s":%d,`, k, v))
   }
   if len(m) > 0 {
      buf.Truncate(buf.Len() - 1) // 去掉最後一個逗號
   }
   buf.Write([]byte("}"))
   return buf.String(), nil
}

上面我們使用sync.Pool實現了一個bytes.Buffer的緩衝池,在 IntToStringMap 函數中,我們從 buffers 中獲取一個 bytes.Buffer 對象,並在函數結束時將其放回池中,避免了頻繁創建和銷燬 bytes.Buffer 對象的開銷。

同時,由於sync.PoolIntToStringMap調用不頻繁的情況下,能夠自動回收sync.Pool中的bytes.Buffer對象,無需用戶操心,也能減小內存的壓力。而且其底層實現也有考慮到多核 cpu 併發執行,每一個 processor 都會有其對應的本地緩存,在一定程度也減少了多線程加鎖的開銷。

從上面可以看出,sync.Pool使用起來非常簡單,但是其還是存在一些注意事項,如果使用不當的話,還是有可能會導致內存泄漏等問題的,下面就來介紹sync.Pool使用時的注意事項。

4. 使用注意事項

4.1 需要注意放入對象的大小

如果不注意放入sync.Pool緩衝池中對象的大小,可能出現sync.Pool中只存在幾個對象,卻佔據了大量的內存,導致內存泄漏。

這裏對於有固定大小的對象,並不需要太過注意放入sync.Pool中對象的大小,這種場景出現內存泄漏的可能性小之又小。但是,如果放入sync.Pool中的對象存在自動擴容的機制,如果不注意放入sync.Pool中對象的大小,此時將很有可能導致內存泄漏。下面來看一個例子:

func Sprintf(format string, a ...any) string {
   p := newPrinter()
   p.doPrintf(format, a)
   s := string(p.buf)
   p.free()
   return s
}

Sprintf方法根據傳入的 format 和對應的參數,完成組裝,返回對應的字符串結果。按照普通的思路,此時只需要申請一個byte數組,然後根據一定規則,將format參數的內容放入byte數組中,最終將byte數組轉換爲字符串返回即可。

按照上面這個思路我們發現,其實每次使用到的byte數組是可複用的,並不需要重複構建。

實際上Sprintf方法的實現也是如此,byte數組其實並非每次創建一個新的,而是會對其進行復用。其實現了一個pp結構體,format參數按照一定規則組裝成字符串的職責,交付給pp結構體,同時byte數組作爲pp結構體的成員變量。

然後將pp的實例放入sync.Pool當中,實現pp重複使用目的,從而簡介避免了重複創建byte數組導致頻繁的 GC,同時也提升了性能。下面是newPrinter方法的邏輯,獲取pp結構體,都是從sync.Pool中獲取:

var ppFree = sync.Pool{
   New: func() any { return new(pp) },
}

// newPrinter allocates a new pp struct or grabs a cached one.
func newPrinter() *pp {
    // 從ppFree中獲取pp
   p := ppFree.Get().(*pp)
   // 執行一些初始化邏輯
   p.panicking = false
   p.erroring = false
   p.wrapErrs = false
   p.fmt.init(&p.buf)
   return p
}

下面回到上面的byte數組,此時其作爲pp結構體的一個成員變量,用於字符串格式化的中間結果,定義如下:

// Use simple []byte instead of bytes.Buffer to avoid large dependency.
type buffer []byte

type pp struct {
   buf buffer
   // 省略掉其他不相關的字段
}

這裏看起來似乎沒啥問題,但是其實是有可能存在內存浪費甚至內存泄漏的問題。假如此時存在一個非常長的字符串需要格式化,此時調用Sprintf來實現格式化,此時pp結構體中的buffer也同樣需要不斷擴容,直到能夠存儲整個字符串的長度爲止,此時pp結構體中的buffer將會佔據比較大的內存。

Sprintf方法完成之後,重新將pp結構體放入sync.Pool當中,此時pp結構體中的buffer佔據的內存將不會被釋放。

但是,如果下次調用Sprintf方法來格式化的字符串,長度並沒有那麼長,但是此時從sync.Pool中取出的pp結構體中的byte數組長度卻是上次擴容之後的byte數組,此時將會導致內存浪費,嚴重點甚至可能導致內存泄漏。

因此,因爲pp對象中buffer字段佔據的內存是會自動擴容的,對象的大小是不固定的,因此將pp對象重新放入sync.Pool中時,需要注意放入對象的大小,如果太大,可能會導致內存泄漏或者內存浪費的情況,此時可以直接拋棄,不重新放入sync.Pool當中。事實上,pp結構體重新放入sync.Pool也是基於該邏輯,其會先判斷pp結構體中buffer字段佔據的內存大小,如果太大,此時將不會重新放入sync.Pool當中,而是直接丟棄,具體如下:

func (p *pp) free() {
   // 如果byte數組的大小超過一定限度,此時將會直接返回
   if cap(p.buf) > 64<<10 {
      return
   }

   p.buf = p.buf[:0]
   p.arg = nil
   p.value = reflect.Value{}
   p.wrappedErr = nil
   
   // 否則,則重新放回sync.Pool當中
   ppFree.Put(p)
}

基於以上總結,如果sync.Pool中存儲的對象佔據的內存大小是不固定的話,此時需要注意放入對象的大小,防止內存泄漏或者內存浪費。

4.2 不要往 sync.Pool 中放入數據庫連接 / TCP 連接

TCP 連接和數據庫連接等資源的獲取和釋放通常需要遵循一定的規範,比如需要在連接完成後顯式地關閉連接等,這些規範是基於網絡協議、數據庫協議等規範而制定的,如果這些規範沒有被正確遵守,就可能導致連接泄漏、連接池資源耗盡等問題。

當使用 sync.Pool 存儲連接對象時,如果這些連接對象並沒有顯式的關閉,那麼它們就會在內存中一直存在,直到進程結束。如果連接對象數量過多,那麼這些未關閉的連接對象就會佔用過多的內存資源,導致內存泄漏等問題。

舉個例子,假設有一個對象Conn表示數據庫連接,它的Close方法用於關閉連接。如果將Conn對象放入sync.Pool中,並在從池中取出並使用後沒有手動調用Close方法歸還對象,那麼這些連接就會一直保持打開狀態,直到程序退出或達到連接數限制等情況。這可能會導致資源耗盡或其他一些問題。

以下是一個簡單的示例代碼,使用 sync.Pool 存儲 TCP 連接對象,演示了連接對象泄漏的情況:

import (
   "fmt"
   "net"
   "sync"
   "time"
)

var pool = &sync.Pool{
   New: func() interface{} {
      conn, err := net.Dial("tcp", "localhost:8000")
      if err != nil {
         panic(err)
      }
      return conn
   },
}

func main() {

   // 模擬使用連接
   for i := 0; i < 100; i++ {
      conn := pool.Get().(net.Conn)
      time.Sleep(100 * time.Millisecond)
      fmt.Fprintf(conn, "GET / HTTP/1.0\r\n\r\n")
      // 不關閉連接
      // 不在使用連接時,釋放連接對象到池中即可
      pool.Put(conn)
   }

}

在上面的代碼中,我們使用 net.Dial 創建了一個 TCP 連接,並將其存儲到 sync.Pool 中。在模擬使用連接時,我們從池中獲取連接對象,向服務器發送一個簡單的 HTTP 請求,然後將連接對象釋放到池中。但是,我們沒有顯式地關閉連接對象。如果連接對象的數量很大,那麼這些未關閉的連接對象就會佔用大量的內存資源,導致內存泄漏等問題。

因此,對於數據庫連接或者 TCP 連接這種資源的釋放需要遵循一定的規範,此時不應該使用sync.Pool來複用,可以自己實現數據庫連接池等方式來實現連接的複用。

5. 總結

本文介紹了 Go 語言中的 sync.Pool原語,它是實現對象重複利用,降低程序 GC 頻次,提高程序性能的一個非常好的工具。

我們首先通過一個簡單的 JSON 序列化器的實現,引入了需要對象重複使用的場景,進而自己實現了一個緩衝池,由該緩衝池存在的問題,進而引出sync.Pool。接着,我們介紹了sync.Pool的基本使用以及將其應用到 JSON 序列化器的實現當中。

在接下來,介紹了sync.Pool常見的注意事項,如需要注意放入sync.Pool對象的大小,對其進行了分析, 從而講述了sync.Pool可能存在的一些注意事項,幫忙大家更好得對其進行使用。

基於以上內容,本文完成了對 sync.Pool的介紹,希望能夠幫助大家更好地理解和使用 Go 語言中的sync.Pool

本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://mp.weixin.qq.com/s/QwwIb7vepilrLSkcVMKL6w