丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給鄭佳美
發(fā)送

0

不靠英偉達(dá),中科院在國產(chǎn) GPU 上跑通 76B 類腦大模型

本文作者: 鄭佳美   2025-09-24 16:24
導(dǎo)語:SpikingBrain:大模型的第二條進(jìn)化鏈。

過去幾年,大模型幾乎都依賴 Transformer,它支撐了 GPT、Claude、Gemini 等一眾前沿模型的進(jìn)步,但也一直被詬病:一旦文本變長,計算量和內(nèi)存消耗就會成倍膨脹,百萬級 token 幾乎不可承受。與此同時,大模型訓(xùn)練幾乎完全依賴 NVIDIA 的 GPU 體系。從算力到軟件棧,整個行業(yè)被牢牢綁定在 CUDA 上,硬件自主化成了遲遲邁不過去的門檻。

正因為如此,業(yè)界一直在尋找“下一條路”。有人嘗試混合架構(gòu),有人研究稀疏專家,也有人試水類腦計算。但這些探索往往停留在小規(guī)模實驗,很少能真正跑到大模型層面。

直到最近,中科院團隊拋出了一篇新論文,提出了一個全新系列的類腦大模型 SpikingBrain。他們通過引入 spiking 神經(jīng)元、線性注意力和稀疏專家機制,不僅在超長文本處理上實現(xiàn)了 百倍加速,還首次在 國產(chǎn) GPU 平臺 MetaX 上穩(wěn)定訓(xùn)練出 76B 規(guī)模的模型。

同時,SpikingBrain 的問世也證明了大模型并不是只能依賴 Transformer + NVIDIA 的組合,另一條通往未來的道路正在被打開。

不靠英偉達(dá),中科院在國產(chǎn) GPU 上跑通 76B 類腦大模型

論文鏈接:https://www.arxiv.org/pdf/2509.05276

大模型的新答案

在實驗中,研究團隊在超長上下文任務(wù)上取得了突破性成果。以 SpikingBrain-7B 為例,當(dāng)輸入長度達(dá)到 400 萬 token 時,其 Time-to-First-Token(首個 token 生成延遲)比傳統(tǒng) Transformer 快了 100 倍。換句話說,原本需要長時間等待的超長文本任務(wù),如今幾乎可以做到即時響應(yīng)。

不靠英偉達(dá),中科院在國產(chǎn) GPU 上跑通 76B 類腦大模型

由于脈沖神經(jīng)元只在必要時才會“放電”,模型在推理過程中保持了 69.15% 的稀疏激活率——也就是說,大多數(shù)神經(jīng)元在大部分時間處于靜默狀態(tài),不參與計算。相比始終全量激活的 lf,這種機制顯著降低了算力消耗和能耗。

不靠英偉達(dá),中科院在國產(chǎn) GPU 上跑通 76B 類腦大模型

在訓(xùn)練規(guī)模上,研究團隊共使用 1500 億 token,先后訓(xùn)練了兩個核心模型:SpikingBrain-7B 和 SpikingBrain-76B。盡管所用數(shù)據(jù)量遠(yuǎn)少于許多主流開源大模型,這兩款模型在多項基準(zhǔn)測試中的表現(xiàn)依然能夠接近,甚至在部分任務(wù)上追平傳統(tǒng) Transformer。雷峰網(wǎng)

不靠英偉達(dá),中科院在國產(chǎn) GPU 上跑通 76B 類腦大模型

不靠英偉達(dá),中科院在國產(chǎn) GPU 上跑通 76B 類腦大模型

更關(guān)鍵的是,這些訓(xùn)練完全在 國產(chǎn) MetaX C550 GPU 集群上完成。實驗結(jié)果顯示,7B 模型在該平臺上達(dá)到了 23.4% 的 FLOPs 利用率,充分證明了它在非 NVIDIA 硬件環(huán)境下依舊能夠保持穩(wěn)定高效的運行。

不靠英偉達(dá),中科院在國產(chǎn) GPU 上跑通 76B 類腦大模型

從不可微到可擴展

為了實現(xiàn)這些結(jié)果,研究團隊在模型結(jié)構(gòu)、訓(xùn)練方法和系統(tǒng)工程三個層面都做了實驗探索。

在架構(gòu)實驗中,團隊對傳統(tǒng) Transformer 做了關(guān)鍵改造。首先,他們將全連接注意力替換為 線性注意力和混合注意力,從根本上緩解了計算復(fù)雜度隨序列長度平方級增長的瓶頸。

與此同時,他們引入了 spiking 神經(jīng)元,讓模型像大腦一樣“按需放電”:只有在需要時才被激活,大多數(shù)時間保持靜默。這種類腦機制帶來了天然的稀疏性,大幅降低了無效計算,是 SpikingBrain 在能效上實現(xiàn)提升的關(guān)鍵所在。

不靠英偉達(dá),中科院在國產(chǎn) GPU 上跑通 76B 類腦大模型

而在系統(tǒng)實驗中,最棘手的挑戰(zhàn)來自硬件環(huán)境。團隊沒有沿用 NVIDIA 的成熟體系,而是選擇在國產(chǎn) MetaX GPU 集群上完成全部訓(xùn)練。

為了讓大模型在這一平臺穩(wěn)定運行,他們對底層系統(tǒng)進(jìn)行了大規(guī)模優(yōu)化:重寫關(guān)鍵算子庫,改造分布式通信機制,并針對長時間訓(xùn)練中常見的內(nèi)存溢出與死鎖問題設(shè)計了專門的解決方案。

憑借這些工程改造,SpikingBrain 不僅在數(shù)百張 MetaX GPU 上成功完成了 7B 模型的穩(wěn)定訓(xùn)練,還順利擴展到 76B 參數(shù)規(guī)模,并在此基礎(chǔ)上引入 MoE 稀疏專家機制,進(jìn)一步提升了模型的性能與效率。

到了訓(xùn)練實驗環(huán)節(jié),為了讓新架構(gòu)真正跑通,團隊設(shè)計了一個 conversion-based pipeline,把 Transformer 成熟的訓(xùn)練經(jīng)驗遷移到 SpikingBrain。配合事件觸發(fā)的 spike 編碼,模型中的脈沖神經(jīng)元依然可以通過反向傳播學(xué)習(xí),避免了“不可微”帶來的訓(xùn)練障礙。通過這種遷移式實驗設(shè)計,他們在保證穩(wěn)定性的同時,也逐步擴展了模型規(guī)模。

不靠英偉達(dá),中科院在國產(chǎn) GPU 上跑通 76B 類腦大模型

一條被點亮的新路線

總體來看,SpikingBrain 的價值不只是跑通了一個新模型,而是用系統(tǒng)性的嘗試回應(yīng)了當(dāng)下大模型最核心的幾個痛點。它在百萬級 token 的長文本上實現(xiàn)了數(shù)量級的加速,說明類腦機制在大規(guī)模模型里并不是紙上談兵,而是能帶來真實收益的方向。雷峰網(wǎng)(公眾號:雷峰網(wǎng))

同時,它第一次在國產(chǎn) GPU 上完成了 76B 規(guī)模訓(xùn)練,讓人看到大模型不一定要綁死在 CUDA 上,硬件路線其實有多種可能。再加上稀疏激活機制顯著降低了能耗,SpikingBrain 給“大模型能否可持續(xù)”這個老問題提供了一個新答案。

當(dāng)然,SpikingBrain 暫時還不能取代 Transformer,它更像是給行業(yè)提供了一個全新的實驗樣本:證明大模型還有其他路徑可走。至于它能否在更復(fù)雜任務(wù)、更大規(guī)模下保持穩(wěn)定,以及類腦機制能否發(fā)展成成熟的工具鏈,還需要時間和進(jìn)一步驗證?!?/p>

但至少現(xiàn)在,我們已經(jīng)看到,大模型的發(fā)展并不是只有一條路,新的路徑正在一點點被點亮。


雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

不靠英偉達(dá),中科院在國產(chǎn) GPU 上跑通 76B 類腦大模型

分享:
相關(guān)文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說