丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能學(xué)術(shù) 正文
發(fā)私信給我在思考中
發(fā)送

0

迷你版DALL-E:模型縮小27倍,訓(xùn)練成本僅200美元,在線可玩!

本文作者: 我在思考中 2021-08-02 10:32
導(dǎo)語:谷歌和Hugging Face的研究員們開放了一款DALL·E mini的小程序。

迷你版DALL-E:模型縮小27倍,訓(xùn)練成本僅200美元,在線可玩!

作者 | 維克多

自從今年1月份OpenAI祭出120億參數(shù)魔法模型DALL·E,眾多科研工作者開始對其進(jìn)行多方位的剖析,希望也能做出給定“自然語言文字描述直接生成對應(yīng)圖片”的程序或軟件。

120億參數(shù).........這意味著只有“頂級玩家”才能入局。如果縮小模型參數(shù),程序還能跑出高質(zhì)量的結(jié)果么?

今日,谷歌和Hugging Face的研究員們開放了一款DALL·E mini的小程序。顧名思義,作為DALL·E的復(fù)刻版,模型規(guī)模比原版小了27倍,且只在單個TPU v3-8上訓(xùn)練了3天。

mini版的DALL·E創(chuàng)造思路非常簡單:在官方開源代碼以及預(yù)訓(xùn)練模型的基礎(chǔ)上,簡化體系結(jié)構(gòu)和減少模型內(nèi)存需求。

效果如何?作者在博客中說:

“在硬件資源受限的情況下,雖然質(zhì)量比較低,但結(jié)果仍然是令人印象深刻的?!?/p>

AI科技評論將其與正版DALL·E進(jìn)行了對比,結(jié)果如下:

文本提示:穿著芭蕾舞短裙的蘿卜寶寶在遛狗。

AI生成的圖像:
迷你版DALL-E:模型縮小27倍,訓(xùn)練成本僅200美元,在線可玩!
圖注:左邊為DALL·E mini輸出結(jié)果,右邊為OpenAI官方博客中的示范

文本提示:寫著“OpenAI”字樣的店面。

AI生成的圖像:
迷你版DALL-E:模型縮小27倍,訓(xùn)練成本僅200美元,在線可玩!
圖注:左邊為DALL·E mini輸出結(jié)果,右邊為OpenAI官方博客中的示范

文本提示:鱷梨形狀的扶手椅。

AI生成的圖像:
迷你版DALL-E:模型縮小27倍,訓(xùn)練成本僅200美元,在線可玩!
圖注:左邊為DALL·E mini輸出結(jié)果,右邊為OpenAI官方博客中的示范

通過以上對比,mini版的DALL·E只在“鱷梨形狀的扶手椅”交出了令人滿意的答卷,在“遛狗”和“店面”測試中,前者生成的是抽象派畫面,后者只生成了店面......果然,魔法還是念完完整咒語,才能發(fā)揮最完美的效果。
迷你版DALL-E:模型縮小27倍,訓(xùn)練成本僅200美元,在線可玩!

目前,已經(jīng)開放demo,在線可玩。
https://huggingface.co/spaces/flax-community/dalle-mini
考慮到較小規(guī)模的模型架構(gòu),以及只訓(xùn)練了三天,因此,其模型結(jié)構(gòu)和訓(xùn)練方法對我們也有借鑒意義。
1

模型架構(gòu) 迷你版DALL-E:模型縮小27倍,訓(xùn)練成本僅200美元,在線可玩!

圖注:模型訓(xùn)練流程

1.圖像通過VQGAN編碼器進(jìn)行編碼,該編碼器將圖像轉(zhuǎn)換為一系列tokens。
2.文字描述通過BART編碼器進(jìn)行編碼。其中,BART解碼器是一個自回歸模型,其目標(biāo)是預(yù)測下一個tokens。
3.損失函數(shù)來自VQGAN中真實圖像編碼和預(yù)測值之間的softmax cross entropy。
迷你版DALL-E:模型縮小27倍,訓(xùn)練成本僅200美元,在線可玩!
圖注:模型推理流程
在推理時候,只有標(biāo)題(captions)可用,圖像生成過程如下:
1.標(biāo)題通過BART 編碼器編碼
2.token 通過通過BART解碼器傳送
3.基于解碼器在下一個 token的預(yù)測分布,對圖像 token進(jìn)行順序采樣
4.圖像token序列通過VQGAN解碼器解碼
5.Clip用于選擇最佳生成的圖像
前面也提到,對于圖像的編碼和解碼,作者使用VQGAN。VQGAN的目標(biāo)是將一幅圖像編碼成一系列離散的 token,這些 token可用于transformers模型。
迷你版DALL-E:模型縮小27倍,訓(xùn)練成本僅200美元,在線可玩!
圖注:訓(xùn)練transformers以實現(xiàn)高分辨率圖像合成
值得一提的是,為了充分利用TPU,該模型用JAX編程。此外,為了加快數(shù)據(jù)加載速度,作者使用圖像編碼器對所有圖像進(jìn)行了預(yù)編碼。
其中,每個TPU處理的Batch size為56,這可以最大限度地增加每個TPU的可用內(nèi)存;采用Adafactor為優(yōu)化器,提高內(nèi)存效率,使我們可以使用更高的Batch size。作者們還花了半天的時間,通過啟動超參數(shù)搜索來為模型找到一個好的學(xué)習(xí)率(0.005)。
2

與OpenAI DALL·E相比 

1.Dall·E使用120億參數(shù)版本的GPT-3。相比之下,Dall·E mini的模型小27倍,參數(shù)約為4億。


2.Dall·E mini使用大量預(yù)先訓(xùn)練好的模型(VQGAN、BART編碼器和CLIP),而OpenAI從頭開始訓(xùn)練。


3.在圖像編碼方面,表( vocabulary )的對比是8192 vs 16384,tokens的對比是1024vs256。Dall·E使用VQVAE,而作者使用VQGAN。


4.在文本編碼方面,表( vocabulary )的對比是16384 vs 50264,tokens的對比是256 vs 1024。


5.Dall·E通過自回歸模型讀取文本,而Dall·E mini使用雙向編碼器。


6.Dall·E接受了2.5億對圖像和文本的訓(xùn)練,而Dall·E mini只使用了1500萬對。

綜上,以上的設(shè)置差異使得Dall·E mini的訓(xùn)練時間大大縮小,即只在單個TPU v3-8上訓(xùn)練了3天。據(jù)作者計算,模型的訓(xùn)練成本不到200美元,即使算上在TPU和超參數(shù)搜索上的實驗,額外的開銷也不超過1000美元。
最后,作者寫道:
基于此,Dall·E生成的圖像的質(zhì)量雖然比Dall·E mini模型高得多,但調(diào)用的資源非常少。不得不承認(rèn)這個模型在復(fù)現(xiàn)OpenAI幾個官方示例中確實失敗了。
同時,作者也放出了一些實驗結(jié)果,如下所示:
迷你版DALL-E:模型縮小27倍,訓(xùn)練成本僅200美元,在線可玩!?

3

差在哪?

作者也承認(rèn)了Dall·E mini的幾個缺陷,在文末,他們總結(jié)到:
1.生成的圖片經(jīng)常有水??;
2.人物和動物的生成往往有缺陷;
3.很難預(yù)測該模型的優(yōu)勢和缺陷,例如該模型很擅長生成“鱷梨形狀的扶手椅”,但不能生成與“計算機logo ”相關(guān)的任何內(nèi)容;
4.目前僅接受英文輸入,在其他語言中表現(xiàn)不佳。
經(jīng)過分析,作者認(rèn)為之所以出現(xiàn)缺陷,可能是因為數(shù)據(jù)集,畢竟數(shù)據(jù)偏見一直是研究社區(qū)所討論的;另外,模型本身以及訓(xùn)練的流程、推理的流程都有可能是出問題的地方。

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

雷峰網(wǎng)特約稿件,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

迷你版DALL-E:模型縮小27倍,訓(xùn)練成本僅200美元,在線可玩!

分享:
相關(guān)文章
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說