用 Pytorch 訓練快速神經網絡的 9 個技巧

作者丨 William Falcon,來源丨稀牛 Xiniu

編輯丨極市平臺

事實上,你的模型可能還停留在石器時代的水平。估計你還在用 32 位精度或 GASP(一般活動仿真語言) 訓練,甚至可能只在單 GPU 上訓練。如果市面上有 99 個加速指南,但你可能只看過 1 個?(沒錯,就是這樣)。但這份終極指南,會一步步教你清除模型中所有的(GP 模型)。

不要讓你的神經網絡變成這樣
圖片來源:Monsters U

這份指南的介紹從簡單到複雜,一直介紹到你可以完成的大多數 PITA 修改,以充分利用你的網絡。例子中會包括一些 Pytorch 代碼和相關標記,可以在 Pytorch-Lightning 訓練器中用,以防大家不想自己敲碼!

這份指南針對的是誰? 任何用 Pytorch 研究非瑣碎的深度學習模型的人,比如工業研究人員、博士生、學者等等…… 這些模型可能要花費幾天,甚至幾周、幾個月的時間來訓練。

本文涵蓋以下內容(從易到難):

  1. 使用 DataLoader

  2. DataLoader 中的進程數

  3. 批尺寸

  4. 累積梯度

  5. 保留計算圖

  6. 轉至單 GPU

  7. 16 位混合精度訓練

  8. 轉至多 GPU(模型複製)

  9. 轉至多 GPU 節點 (8+GPUs)

  10. 有關模型加速的思考和技巧

Pytorch-Lightning

文中討論的各種優化,都可以在 Pytorch-Lightning 找到:https://github.com/williamFalcon/pytorch-lightning?source=post_page

Lightning 是基於 Pytorch 的一個光包裝器,它可以幫助研究人員自動訓練模型,但關鍵的模型部件還是由研究人員完全控制。

參照此篇教程,獲得更有力的範例:https://github.com/williamFalcon/pytorch-lightning/blob/master/examples/new_project_templates/single_gpu_node_template.py?source=post_page

Lightning 採用最新、最尖端的方法,將犯錯的可能性降到最低。

MNIST 定義的 Lightning 模型可適用於訓練器:https://github.com/williamFalcon/pytorch-lightning/blob/master/examples/new_project_templates/lightning_module_template.py?source=post_page

from pytorch-lightning import Trainer
model = LightningModule()
trainer = Trainer()
trainer.fit(model)
  1. DataLoader

這可能是最容易提速的地方。靠保存 h5py 或 numpy 文件來加速數據加載的日子已經一去不復返了。用 Pytorch dataloader 加載圖像數據非常簡單:https://pytorch.org/tutorials/beginner/data_loading_tutorial.html?source=post_page

關於 NLP 數據,請參照 TorchText:https://torchtext.readthedocs.io/en/latest/datasets.html?source=post_page

dataset = MNIST(root=self.hparams.data_root, train=train, download=True)
loader = DataLoader(dataset, batch_size=32, shuffle=True)
for batch in loader: 
  x, y = batch
  model.training_step(x, y)
  ...

在 Lightning 中,你無需指定一個訓練循環,只需定義 dataLoaders,訓練器便會在需要時調用它們。

  1. DataLoaders 中的進程數

加快速度的第二個祕訣在於允許批量並行加載。所以,你可以一次加載許多批量,而不是一次加載一個。

# slow
loader = DataLoader(dataset, batch_size=32, shuffle=True)
# fast (use 10 workers)
loader = DataLoader(dataset, batch_size=32, shuffle=True, num_workers=10)
  1. 批量大小(Batch size)

在開始下一步優化步驟之前,將批量大小調高到 CPU 內存或 GPU 內存允許的最大值。

接下來的部分將着重於減少內存佔用,這樣就可以繼續增加批尺寸。

記住,你很可能需要再次更新學習率。如果將批尺寸增加一倍,最好將學習速度也提高一倍。

  1. 累積梯度

假如已經最大限度地使用了計算資源,而批尺寸仍然太低 (假設爲 8),那我們則需爲梯度下降模擬更大的批尺寸,以供精準估計。

假設想讓批尺寸達到 128。然後,在執行單個優化器步驟前,將執行 16 次前向和後向傳播(批量大小爲 8)。

# clear last step
optimizer.zero_grad()

# 16 accumulated gradient steps
scaled_loss = 0
for accumulated_step_i in range(16): 
     out = model.forward()
     loss = some_loss(out,y)    
     loss.backward()     

       scaled_loss += loss.item()

# update weights after 8 steps. effective batch = 8*16
optimizer.step()

# loss is now scaled up by the number of accumulated batches
actual_loss = scaled_loss / 16properties

而在 Lightning 中,這些已經自動執行了。只需設置標記:

trainer = Trainer(accumulate_grad_batches=16)
trainer.fit(model)
  1. 保留計算圖

撐爆內存很簡單,只要不釋放指向計算圖形的指針,比如…… 爲記錄日誌保存 loss。

losses = []

...
losses.append(loss)

print(f'current loss: )

上述的問題在於,loss 仍然有一個圖形副本。在這種情況中,可用. item() 來釋放它。

# bad
losses.append(loss)

# good
losses.append(loss.item())

Lightning 會特別注意,讓其無法保留圖形副本。示例:https://github.com/williamFalcon/pytorch-lightning/blob/master/pytorch_lightning/models/trainer.py#L812

  1. 單 GPU 訓練

一旦完成了前面的步驟,就可以進入 GPU 訓練了。GPU 的訓練將對許多 GPU 核心上的數學計算進行並行處理。能加速多少取決於使用的 GPU 類型。個人使用的話,推薦使用 2080Ti,公司使用的話可用 V100。

剛開始你可能會覺得壓力很大,但其實只需做兩件事:1) 將你的模型移動到 GPU 上,2) 在用其運行數據時,把數據導至 GPU 中。

# put model on GPU
model.cuda(0)

# put data on gpu (cuda on a variable returns a cuda copy)
x = x.cuda(0)

# runs on GPU now
model(x)

如果使用 Lightning,則不需要對代碼做任何操作。只需設置標記:

# ask lightning to use gpu 0 for training
trainer = Trainer(gpus=[0])
trainer.fit(model)

在 GPU 進行訓練時,要注意限制 CPU 和 GPU 之間的傳輸量。

# expensive
x = x.cuda(0)

# very expensive
x = x.cpu()
x = x.cuda(0)

例如,如果耗盡了內存,不要爲了省內存,將數據移回 CPU。嘗試用其他方式優化代碼,或者在用這種方法之前先跨 GPUs 分配代碼。

此外還要注意進行強制 GPUs 同步的操作。例如清除內存緩存。

# really bad idea.Stops all the GPUs until they all catch up
torch.cuda.empty_cache()

但是如果使用 Lightning,那麼只有在定義 Lightning 模塊時可能會出現這種問題。Lightning 特別注意避免此類錯誤。

  1. 16 位精度

16 位精度可以有效地削減一半的內存佔用。大多數模型都是用 32 位精度數進行訓練的。然而最近的研究發現,使用 16 位精度,模型也可以很好地工作。混合精度指的是,用 16 位訓練一些特定的模型,而權值類的用 32 位訓練。

要想在 Pytorch 中用 16 位精度,先從 NVIDIA 中安裝 apex 圖書館 並對你的模型進行這些更改。

# enable 16-bit on the model and the optimizer
model, optimizers = amp.initialize(model, optimizers, opt_level='O2')

# when doing .backward, let amp do it so it can scale the loss
with amp.scale_loss(loss, optimizer) as scaled_loss:                       
    scaled_loss.backward()

amp 包會處理大部分事情。如果梯度爆炸或趨於零,它甚至會擴大 loss。

在 Lightning 中, 使用 16 位很簡單,不需對你的模型做任何修改,也不用完成上述操作。

trainer = Trainer(amp_level=’O2'use_amp=False)
trainer.fit(model)
  1. 移至多 GPU

現在,事情就變得有意思了。有 3 種 (也許更多?) 方式訓練多 GPU。

A) 在每個 GPU 上覆制模型;B) 給每個 GPU 分配一部分批量。

第一種方法叫做分批量訓練。這一策略將模型複製到每個 GPU 上,而每個 GPU 會分到該批量的一部分。

# copy model on each GPU and give a fourth of the batch to each
model = DataParallel(model, devices=[0, 1, 2 ,3])

# out has 4 outputs (one for each gpu)
out = model(x.cuda(0))

在 Lightning 中,可以直接指示訓練器增加 GPU 數量,而無需完成上述任何操作。

# ask lightning to use 4 GPUs for training
trainer = Trainer(gpus=[0, 1, 2, 3])
trainer.fit(model)

將模型的不同部分分配給不同的 GPU,按順序分配批量

有時模型可能太大,內存不足以支撐。比如,帶有編碼器和解碼器的 Sequence to Sequence 模型在生成輸出時可能會佔用 20gb 的內存。在這種情況下,我們希望把編碼器和解碼器放在單獨的 GPU 上。

# each model is sooo big we can't fit both in memory
encoder_rnn.cuda(0)
decoder_rnn.cuda(1)

# run input through encoder on GPU 0
out = encoder_rnn(x.cuda(0))

# run output through decoder on the next GPU
out = decoder_rnn(x.cuda(1))

# normally we want to bring all outputs back to GPU 0
out = out.cuda(0)

對於這種類型的訓練,無需將 Lightning 訓練器分到任何 GPU 上。與之相反,只要把自己的模塊導入正確的 GPU 的 Lightning 模塊中:

class MyModule(LightningModule):

def __init__(): 
        self.encoder = RNN(...)
        self.decoder = RNN(...)

def forward(x):
    # models won't be moved after the first forward because 
        # they are already on the correct GPUs
        self.encoder.cuda(0)
        self.decoder.cuda(1)     
   
out = self.encoder(x)
        out = self.decoder(out.cuda(1))

# don't pass GPUs to trainer
model = MyModule()
trainer = Trainer()
trainer.fit(model)

在上面的例子中,編碼器和解碼器仍然可以從並行化每個操作中獲益。我們現在可以更具創造力了。

# change these lines
self.encoder = RNN(...)
self.decoder = RNN(...)

# to these
# now each RNN is based on a different gpu set
self.encoder = DataParallel(self.encoder, devices=[0, 1, 2, 3])
self.decoder = DataParallel(self.encoder, devices=[4, 5, 6, 7])

# in forward...
out = self.encoder(x.cuda(0))

# notice inputs on first gpu in device
sout = self.decoder(out.cuda(4))  # <--- the 4 here

使用多 GPUs 時需注意的事項

  1. 多節點 GPU 訓練

每臺機器上的各 GPU 都可獲取一份模型的副本。每臺機器分得一部分數據,並僅針對該部分數據進行訓練。各機器彼此同步梯度。

做到了這一步,就可以在幾分鐘內訓練 Imagenet 數據集了! 這沒有想象中那麼難,但需要更多有關計算集羣的知識。這些指令假定你正在集羣上使用 SLURM。

Pytorch 在各個 GPU 上跨節點複製模型並同步梯度,從而實現多節點訓練。因此,每個模型都是在各 GPU 上獨立初始化的,本質上是在數據的一個分區上獨立訓練的,只是它們都接收來自所有模型的梯度更新。

高級階段:

  1. 在各 GPU 上初始化一個模型的副本 (確保設置好種子,使每個模型初始化到相同的權值,否則操作會失效。)

  2. 將數據集分成子集。每個 GPU 只在自己的子集上訓練。

  3. On .backward() 所有副本都會接收各模型梯度的副本。只有此時,模型之間纔會相互通信。

Pytorch 有一個很好的抽象概念,叫做分佈式數據並行處理,它可以爲你完成這一操作。要使用 DDP(分佈式數據並行處理),需要做 4 件事:

def tng_dataloader(,m):
     
d = MNIST()
     # 4: Add distributed sampler
     # sampler sends a portion of tng data to each machine
     dist_sampler = DistributedSampler(dataset)
     dataloader = DataLoader(d, shuffle=False, sampler=dist_sampler)

def main_process_entrypoint(gpu_nb): 
     # 2: set up connections  between all gpus across all machines
     # all gpus connect to a single GPU "root"
     # the default uses env://
     world = nb_gpus * nb_nodes
     dist.init_process_group("nccl"rank=gpu_nb, world_size=world)
    
     # 3: wrap model in DPP
     torch.cuda.set_device(gpu_nb)
     model.cuda(gpu_nb)
     model = DistributedDataParallel(model, device_ids=[gpu_nb])
    
     # train your model now...

if  __name__ == '__main__': 
     # 1: spawn number of processes
     # your cluster will call main for each machine
     mp.spawn(main_process_entrypoint, nprocs=8)

Pytorch 團隊對此有一份詳細的實用教程:https://github.com/pytorch/examples/blob/master/imagenet/main.py?source=post_page

然而,在 Lightning 中,這是一個自帶功能。只需設定節點數標誌,其餘的交給 Lightning 處理就好。

# train on 1024 gpus across 128 nodes
trainer = Trainer(nb_gpu_nodes=128, gpus=[0, 1, 2, 3, 4, 5, 6, 7])

Lightning 還附帶了一個 SlurmCluster 管理器,可助你簡單地提交 SLURM 任務的正確細節。示例:https://github.com/williamFalcon/pytorch-lightning/blob/master/examples/new_project_templates/multi_node_cluster_template.py#L103-L134

  1. 福利!更快的多 GPU 單節點訓練

事實證明,分佈式數據並行處理要比數據並行快得多,因爲其唯一的通信是梯度同步。因此,最好用分佈式數據並行處理替換數據並行,即使只是在做單機訓練。

在 Lightning 中,通過將 distributed_backend 設置爲 ddp(分佈式數據並行處理)並設置 GPU 的數量,這可以很容易實現。

# train on 4 gpus on the same machine MUCH faster than DataParallel
trainer = Trainer(distributed_backend='ddp'gpus=[0, 1, 2, 3])

有關模型加速的思考和技巧

如何通過尋找瓶頸來思考問題?可以把模型分成幾個部分:

首先,確保數據加載中沒有瓶頸。爲此,可以使用上述的現有數據加載方案,但是如果沒有適合你的方案,你可以把離線處理及超高速緩存作爲高性能數據儲存,就像 h5py 一樣。

接下來看看在訓練過程中該怎麼做。確保快速轉發,避免多餘的計算,並將 CPU 和 GPU 之間的數據傳輸最小化。最後,避免降低 GPU 的速度 (在本指南中有介紹)。

接下來,最大化批尺寸,通常來說,GPU 的內存大小會限制批量大小。自此看來,這其實就是跨 GPU 分佈,但要最小化延遲,有效使用大批次(例如在數據集中,可能會在多個 GPUs 上獲得 8000 + 的有效批量大小)。

但是需要小心處理大批次。根據具體問題查閱文獻,學習一下別人是如何處理的!

原文鏈接:https://towardsdatascience.com/9-tips-for-training-lightning-fast-neural-networks-in-pytorch-8e63a502f565

本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://mp.weixin.qq.com/s/T1QYH75n2jIUj6sYIefhKw