丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能開發(fā)者 正文
發(fā)私信給汪思穎
發(fā)送

0

OpenAI 開源最新工具包,模型增大 10 倍只需額外增加 20% 計(jì)算時間

本文作者: 汪思穎 2018-01-17 09:41
導(dǎo)語:對于普通的前饋模型,可以在計(jì)算時間只增加 20% 的情況下,在 GPU 上訓(xùn)練比之前大十多倍的模型。

雷鋒網(wǎng) AI 研習(xí)社消息,近日,OpenAI 在 GitHub 上開源最新工具包 gradient-checkpointing,該工具包通過設(shè)置梯度檢查點(diǎn)(gradient-checkpointing)來節(jié)省內(nèi)存資源。據(jù)悉,對于普通的前饋模型,可以在計(jì)算時間只增加 20% 的情況下,在 GPU 上訓(xùn)練比之前大十多倍的模型。雷鋒網(wǎng) AI 研習(xí)社將該開源信息編譯整理如下:

通過梯度檢查點(diǎn)(gradient-checkpointing)來節(jié)省內(nèi)存資源

訓(xùn)練非常深的神經(jīng)網(wǎng)絡(luò)需要大量內(nèi)存,利用 Tim Salimans 和 Yaroslav Bulatov 共同開發(fā)的 gradient-checkpointing 包中的工具,可以犧牲計(jì)算時間來解決內(nèi)存過小的問題,讓你更好地針對模型進(jìn)行訓(xùn)練。

對于普通的前饋模型,可以在計(jì)算時間只增加 20% 的情況下,在 GPU 上訓(xùn)練比之前大十多倍的模型。

訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)時,損失的梯度是在內(nèi)存密集部分通過反向傳播(backpropagation)算法來計(jì)算的。在訓(xùn)練模型時定義計(jì)算圖中的檢查點(diǎn),并在這些檢查點(diǎn)之間通過反向傳播算法重新計(jì)算這些圖,可以在降低內(nèi)存的同時計(jì)算梯度值。

當(dāng)訓(xùn)練一個 n 層的深度前饋神經(jīng)網(wǎng)絡(luò)時,可以利用這種方式將內(nèi)存消耗減少到 O(sqrt(n)),代價是需要執(zhí)行一個額外的前向傳遞操作。這個庫可以在 Tensorflow 中實(shí)現(xiàn)這一功能——使用 Tensorflow graph editor 來自動重寫后向傳遞的計(jì)算圖。

OpenAI 開源最新工具包,模型增大 10 倍只需額外增加 20% 計(jì)算時間

圖:使用常規(guī)的 tf.gradients 函數(shù)和使用這種優(yōu)化內(nèi)存梯度實(shí)現(xiàn)法(memory-optimized gradient implementation)訓(xùn)練不同層數(shù)的 ResNet 模型時需要的內(nèi)存對比

大家現(xiàn)在就可以安裝

pip install tf-nightly-gpu

pip install toposort networkx pytest

當(dāng)執(zhí)行這一程序時,需要保證能找到CUPTI。

這時可以執(zhí)行

export LD_LIBRARY_PATH="${LD_LIBRARY_PATH}:/usr/local/cuda/extras/CUPTI/lib64

使用方法

這個庫提供嵌入式功能,能對 tf.gradients 函數(shù)進(jìn)行替換,可以輸入如下程序來引入相關(guān)函數(shù):

from memory_saving_gradients import gradients

大家可以像使用 tf.gradients 函數(shù)一樣使用 gradients 函數(shù)來計(jì)算參數(shù)損失的梯度。

gradients 函數(shù)有一個額外的功能——檢查點(diǎn)(checkpoints)。

檢查點(diǎn)會對 gradients 函數(shù)進(jìn)行指示——在計(jì)算圖的前向傳播中,圖中的哪一部分節(jié)點(diǎn)是用戶想要檢查的點(diǎn)。隨后,會在后向傳播中重新計(jì)算檢查點(diǎn)之間的節(jié)點(diǎn)。

大家可以為檢查點(diǎn)提供一系列張量(gradients(ys,xs,checkpoints=[tensor1,tensor2])),或者可以使用如下幾個關(guān)鍵詞('collection'、'memory' 、'speed')來進(jìn)行設(shè)置。

覆蓋 tf.gradients 函數(shù)

使用 gradients 函數(shù)的另一個方法是直接覆蓋 tf.gradients 函數(shù),方法如下:

import tensorflow as tf

import memory_saving_gradients

# monkey patch tf.gradients to point to our custom version, with automatic checkpoint selection

def gradients_memory(ys, xs, grad_ys=None, **kwargs):

  return memory_saving_gradients.gradients(ys, xs, grad_ys, checkpoints='memory', **kwargs)

tf.__dict__["gradients"] = gradients_memory

這樣操作之后,所有調(diào)用 tf.gradients 函數(shù)的請求都會使用新的節(jié)省內(nèi)存的方法。

測試

在測試文件夾中,有已經(jīng)寫好的用于測試代碼準(zhǔn)確性和不同模型占用內(nèi)存的腳本。

大家可以執(zhí)行 ./run_all_tests.sh 來修改代碼,并著手測試。

OpenAI 開源最新工具包,模型增大 10 倍只需額外增加 20% 計(jì)算時間

圖:在CIFAR10數(shù)據(jù)集上,使用常規(guī)的梯度函數(shù)和使用最新的優(yōu)化內(nèi)存函數(shù),在不同層數(shù)的 ResNet 網(wǎng)絡(luò)下的內(nèi)存占用情況和執(zhí)行時間的對比

via:GitHub

雷鋒網(wǎng) AI 研習(xí)社編譯整理。

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

OpenAI 開源最新工具包,模型增大 10 倍只需額外增加 20% 計(jì)算時間

分享:
相關(guān)文章

編輯

關(guān)注AI學(xué)術(shù),例如論文
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說