丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
業(yè)界 正文
發(fā)私信給nebula
發(fā)送

0

Open-Sora全面開源模型參數(shù)和所有訓(xùn)練細(xì)節(jié)

本文作者: nebula 2024-03-18 09:38
導(dǎo)語:Colossal-AI團(tuán)隊全面開源全球首個類Sora架構(gòu)視頻生成模型 「Open-Sora 1.0」,涵蓋了整個訓(xùn)練流程,包括數(shù)據(jù)處理、所有訓(xùn)練細(xì)節(jié)和模型權(quán)重。

不久前OpenAI Sora以其驚人的視頻生成效果迅速走紅,在一眾文生視頻模型中突出重圍,成為全球矚目的焦點。繼2周前推出成本直降46%的Sora訓(xùn)練推理復(fù)現(xiàn)流程后,Colossal-AI團(tuán)隊全面開源全球首個類Sora架構(gòu)視頻生成模型 「Open-Sora 1.0」,涵蓋了整個訓(xùn)練流程,包括數(shù)據(jù)處理、所有訓(xùn)練細(xì)節(jié)和模型權(quán)重,攜手全球AI熱愛者共同推進(jìn)視頻創(chuàng)作的新紀(jì)元。

先睹為快,我們先看一段由Colossal-AI團(tuán)隊發(fā)布的「Open-Sora 1.0」模型生成的都市繁華掠影視頻。

Open-Sora全面開源模型參數(shù)和所有訓(xùn)練細(xì)節(jié)

這僅僅是Sora復(fù)現(xiàn)技術(shù)冰山的一角,關(guān)于以上文生視頻的模型架構(gòu)、訓(xùn)練好的模型權(quán)重、復(fù)現(xiàn)的所有訓(xùn)練細(xì)節(jié)、數(shù)據(jù)預(yù)處理過程、demo展示 和 詳細(xì)的上手教程,Colossal-AI團(tuán)隊已經(jīng)全面免費開源在GitHub,同時筆者第一時間聯(lián)系了該團(tuán)隊,了解到他們將不斷更新Open-Sora的相關(guān)解決方案和最新動態(tài),感興趣的朋友可以持續(xù)關(guān)注Open-Sora的開源社區(qū)。

Open-Sora 開源地址:https://github.com/hpcaitech/Open-Sora

全面解讀Sora復(fù)現(xiàn)方案

接下來,我們將深入解讀Sora復(fù)現(xiàn)方案的多個關(guān)鍵維度,包括模型架構(gòu)設(shè)計、訓(xùn)練復(fù)現(xiàn)方案、數(shù)據(jù)預(yù)處理、模型生成效果展示以及高效訓(xùn)練優(yōu)化策略。

模型架構(gòu)設(shè)計

模型采用了目前火熱的Diffusion Transformer (DiT) [1] 架構(gòu)。作者團(tuán)隊以同樣使用DiT架構(gòu)的高質(zhì)量開源文生圖模型PixArt-α [2] 為基座,在此基礎(chǔ)上引入時間注意力層,將其擴(kuò)展到了視頻數(shù)據(jù)上。具體來說,整個架構(gòu)包括一個預(yù)訓(xùn)練好的VAE,一個文本編碼器,和一個利用空間-時間注意力機(jī)制的 STDiT (Spatial Temporal Diffusion Transformer)模型。其中,STDiT 每層的結(jié)構(gòu)如下圖所示。它采用串行的方式在二維的空間注意力模塊上疊加一維的時間注意力模塊,用于建模時序關(guān)系。在時間注意力模塊之后,交叉注意力模塊用于對齊文本的語意。與全注意力機(jī)制相比,這樣的結(jié)構(gòu)大大降低了訓(xùn)練和推理開銷。與同樣使用空間-時間注意力機(jī)制的 Latte [3] 模型相比,STDiT 可以更好的利用已經(jīng)預(yù)訓(xùn)練好的圖像 DiT 的權(quán)重,從而在視頻數(shù)據(jù)上繼續(xù)訓(xùn)練。

Open-Sora全面開源模型參數(shù)和所有訓(xùn)練細(xì)節(jié)

STDiT結(jié)構(gòu)示意圖

整個模型的訓(xùn)練和推理流程如下。據(jù)了解,在訓(xùn)練階段首先采用預(yù)訓(xùn)練好的Variational Autoencoder (VAE)的編碼器將視頻數(shù)據(jù)進(jìn)行壓縮,然后在壓縮之后的潛在空間中與文本嵌入(text embedding)一起訓(xùn)練STDiT擴(kuò)散模型。在推理階段,從VAE的潛在空間中隨機(jī)采樣出一個高斯噪聲,與提示詞嵌入(prompt embedding)一起輸入到STDiT中,得到去噪之后的特征,最后輸入到VAE的解碼器,解碼得到視頻。

Open-Sora全面開源模型參數(shù)和所有訓(xùn)練細(xì)節(jié)

模型的訓(xùn)練流程

訓(xùn)練復(fù)現(xiàn)方案

我們向該團(tuán)隊了解到,Open-Sora 的復(fù)現(xiàn)方案參考了Stable Video Diffusion (SVD)[3]工作,共包括三個階段,分別是:

1) 大規(guī)模圖像預(yù)訓(xùn)練;

2) 大規(guī)模視頻預(yù)訓(xùn)練;

3) 高質(zhì)量視頻數(shù)據(jù)微調(diào)。

每個階段都會基于前一個階段的權(quán)重繼續(xù)訓(xùn)練。相比于從零開始單階段訓(xùn)練,多階段訓(xùn)練通過逐步擴(kuò)展數(shù)據(jù),更高效地達(dá)成高質(zhì)量視頻生成的目標(biāo)。

Open-Sora全面開源模型參數(shù)和所有訓(xùn)練細(xì)節(jié)

訓(xùn)練方案三階段

  • 第一階段:大規(guī)模圖像預(yù)訓(xùn)練

第一階段通過大規(guī)模圖像預(yù)訓(xùn)練,借助成熟的文生圖模型,有效降低視頻預(yù)訓(xùn)練成本。

作者團(tuán)隊向我們透露,通過互聯(lián)網(wǎng)上豐富的大規(guī)模圖像數(shù)據(jù)和先進(jìn)的文生圖技術(shù),我們可以訓(xùn)練一個高質(zhì)量的文生圖模型,該模型將作為下一階段視頻預(yù)訓(xùn)練的初始化權(quán)重。同時,由于目前沒有高質(zhì)量的時空 VAE,他們采用了Stable Diffusion [5] 模型預(yù)訓(xùn)練好的圖像VAE。該策略不僅保障了初始模型的優(yōu)越性能,還顯著降低了視頻預(yù)訓(xùn)練的整體成本。

  • 第二階段:大規(guī)模視頻預(yù)訓(xùn)練

第二階段執(zhí)行大規(guī)模視頻預(yù)訓(xùn)練,增加模型泛化能力,有效掌握視頻的時間序列關(guān)聯(lián)。

我們了解到,這個階段需要使用大量視頻數(shù)據(jù)訓(xùn)練,保證視頻題材的多樣性,從而增加模型的泛化能力。第二階段的模型在第一階段文生圖模型的基礎(chǔ)上加入了時序注意力模塊,用于學(xué)習(xí)視頻中的時序關(guān)系。其余模塊與第一階段保持一致,并加載第一階段權(quán)重作為初始化,同時初始化時序注意力模塊輸出為零,以達(dá)到更高效更快速的收斂。Colossal-AI團(tuán)隊使用了PixArt-alpha[2]的開源權(quán)重作為第二階段STDiT模型的初始化,以及采用了T5 [6]模型作為文本編碼器。同時他們采用了256x256的小分辨率進(jìn)行預(yù)訓(xùn)練,進(jìn)一步增加了收斂速度,降低訓(xùn)練成本。

  • 第三階段:高質(zhì)量視頻數(shù)據(jù)微調(diào)

第三階段對高質(zhì)量視頻數(shù)據(jù)進(jìn)行微調(diào),顯著提升視頻生成的質(zhì)量。

作者團(tuán)隊提及第三階段用到的視頻數(shù)據(jù)規(guī)模比第二階段要少一個量級,但是視頻的時長、分辨率和質(zhì)量都更高。通過這種方式進(jìn)行微調(diào),他們實現(xiàn)了視頻生成從短到長、從低分辨率到高分辨率、從低保真度到高保真度的高效擴(kuò)展。

作者團(tuán)隊表示,在Open-Sora的復(fù)現(xiàn)流程中,他們使用了64塊H800進(jìn)行訓(xùn)練。第二階段的訓(xùn)練量一共是 2808 GPU hours,約合7000美元,第三階段的訓(xùn)練量是1920 GPU hours,大約4500美元。經(jīng)過初步估算,整個訓(xùn)練方案成功把Open-Sora復(fù)現(xiàn)流程控制在了1萬美元左右。

數(shù)據(jù)預(yù)處理

為了進(jìn)一步降低Sora復(fù)現(xiàn)的門檻和復(fù)雜度,Colossal-AI團(tuán)隊在代碼倉庫中還提供了便捷的視頻數(shù)據(jù)預(yù)處理腳本,讓大家可以輕松啟動Sora復(fù)現(xiàn)預(yù)訓(xùn)練,包括公開視頻數(shù)據(jù)集下載,長視頻根據(jù)鏡頭連續(xù)性分割為短視頻片段,使用開源大語言模型LLaVA[7]生成精細(xì)的提示詞。作者團(tuán)隊提到他們提供的批量視頻標(biāo)題生成代碼可以用兩卡 3 秒標(biāo)注一個視頻,并且質(zhì)量接近于 GPT-4V。最終得到的視頻/文本對可直接用于訓(xùn)練。借助他們在GitHub上提供的開源代碼,我們可以輕松地在自己的數(shù)據(jù)集上快速生成訓(xùn)練所需的視頻/文本對,顯著降低了啟動Sora復(fù)現(xiàn)項目的技術(shù)門檻和前期準(zhǔn)備。

Open-Sora全面開源模型參數(shù)和所有訓(xùn)練細(xì)節(jié)

基于數(shù)據(jù)預(yù)處理腳本自動生成的視頻/文本

模型生成效果展示

下面我們來看一下Open-Sora實際視頻生成效果。比如讓Open-Sora生成一段在懸崖海岸邊,海水拍打著巖石的航拍畫面。

Open-Sora全面開源模型參數(shù)和所有訓(xùn)練細(xì)節(jié)

再讓Open-Sora去捕捉山川瀑布從懸崖上澎湃而下,最終匯入湖泊的宏偉鳥瞰畫面。

Open-Sora全面開源模型參數(shù)和所有訓(xùn)練細(xì)節(jié)

除了上天還能入海,簡單輸入prompt,讓Open-Sora生成了一段水中世界的鏡頭,鏡頭中一只海龜在珊瑚礁間悠然游弋。

Open-Sora全面開源模型參數(shù)和所有訓(xùn)練細(xì)節(jié)

Open-Sora還能通過延時攝影的手法,向我們展現(xiàn)了繁星閃爍的銀河。

Open-Sora全面開源模型參數(shù)和所有訓(xùn)練細(xì)節(jié)

如果你還有更多視頻生成的有趣想法,可以訪問Open-Sora開源社區(qū)獲取模型權(quán)重進(jìn)行免費的體驗。鏈接:https://github.com/hpcaitech/Open-Sora

值得注意的是,作者團(tuán)隊在 Github 上提到目前版本僅使用了 400K 的訓(xùn)練數(shù)據(jù),模型的生成質(zhì)量和遵循文本的能力都有待提升。例如在上面的烏龜視頻中,生成的烏龜多了一只腳。Open-Sora 1.0 也并不擅長生成人像和復(fù)雜畫面。作者團(tuán)隊在Github上列舉了一系列待做規(guī)劃,旨在不斷解決現(xiàn)有缺陷,提升生成質(zhì)量。

高效訓(xùn)練加持

除了大幅降低Sora復(fù)現(xiàn)的技術(shù)門檻,提升視頻生成在時長、分辨率、內(nèi)容等多個維度的質(zhì)量,作者團(tuán)隊還提供了Colossal-AI加速系統(tǒng)進(jìn)行Sora復(fù)現(xiàn)的高效訓(xùn)練加持。通過算子優(yōu)化和混合并行等高效訓(xùn)練策略,在處理64幀、512x512分辨率視頻的訓(xùn)練中,實現(xiàn)了1.55倍的加速效果。同時,得益于Colossal-AI的異構(gòu)內(nèi)存管理系統(tǒng),在單臺服務(wù)器上(8*H800)可以無阻礙地進(jìn)行1分鐘的1080p高清視頻訓(xùn)練任務(wù)。 

Open-Sora全面開源模型參數(shù)和所有訓(xùn)練細(xì)節(jié)

此外,在作者團(tuán)隊的報告中,我們也發(fā)現(xiàn)STDiT模型架構(gòu)在訓(xùn)練時也展現(xiàn)出卓越的高效性。和采用全注意力機(jī)制的DiT相比,隨著幀數(shù)的增加,STDiT實現(xiàn)了高達(dá)5倍的加速效果,這在處理長視頻序列等現(xiàn)實任務(wù)中尤為關(guān)鍵。

Open-Sora全面開源模型參數(shù)和所有訓(xùn)練細(xì)節(jié)

歡迎持續(xù)關(guān)注Open-Sora開源項目:https://github.com/hpcaitech/Open-Sora

作者團(tuán)隊提及,他們將會繼續(xù)維護(hù)和優(yōu)化Open-Sora項目,預(yù)計將使用更多的視頻訓(xùn)練數(shù)據(jù),以生成更高質(zhì)量、更長時長的視頻內(nèi)容,并支持多分辨率特性,切實推進(jìn)AI技術(shù)在電影、游戲、廣告等領(lǐng)域的落地。

Reference

[1] https://arxiv.org/abs/2212.09748 Scalable Diffusion Models with Transformers

[2] https://arxiv.org/abs/2310.00426 PixArt-α: Fast Training of Diffusion Transformer for Photorealistic Text-to-Image Synthesis

[3] https://arxiv.org/abs/2311.15127 Stable Video Diffusion: Scaling Latent Video Diffusion Models to Large Datasets

[4] https://arxiv.org/abs/2401.03048 Latte: Latent Diffusion Transformer for Video Generation

[5] https://huggingface.co/stabilityai/sd-vae-ft-mse-original

[6] https://github.com/google-research/text-to-text-transfer-transformer

[7] https://github.com/haotian-liu/LLaVA

[8] https://hpc-ai.com/blog/open-sora-v1.0

雷峰網(wǎng)(公眾號:雷峰網(wǎng))

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

分享:
相關(guān)文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說