0
[雷峰網(wǎng)(公眾號(hào):雷峰網(wǎng))]兩周前,面壁發(fā)布領(lǐng)先的開源大模型「Eurux-8x22B 」。相比口碑之作 Llama3-70B,發(fā)布時(shí)間更早,綜合性能相當(dāng),尤其是擁有更強(qiáng)的推理性能——刷新開源大模型推理性能 SOTA,堪稱開源大模型中「理科狀元」。激活參數(shù)僅 39B,支持 64k 上下文,相比 Llama3 速度更快、可處理更長(zhǎng)文本。
圖注:面壁Eurux-8x22B 模型在 LeetCode 和 TheoremQA這兩個(gè)具有挑戰(zhàn)性的基準(zhǔn)測(cè)試中,刷新開源大模型推理性能 SOTA。
圖注:面壁Eurux-8x22B 模型綜合性能比肩 LlaMa3-70B,超越開源模型 WizardLM-2-8x22b, Mistral-8x22b-Instruct,DeepSeek-67b,以及閉源模型 GPT-3.5-turbo。
Eurux-8x22B 由 Mistral-8x22B對(duì)齊而來(lái)。強(qiáng)勁戰(zhàn)斗力,來(lái)自面壁 Ultra 對(duì)齊技術(shù)上新 UltraInterat 大規(guī)模、高質(zhì)量對(duì)齊數(shù)據(jù)集。此前,面壁 Ultra 對(duì)齊系列數(shù)據(jù)集已經(jīng)“強(qiáng)壯”了全球超 200 個(gè)大模型,堪稱大模型上分神器。
Eurux-8x22B模型+對(duì)齊數(shù)據(jù)集,全家桶開源:
https://github.com/OpenBMB/Eurus
https://huggingface.co/openbmb/Eurux-8x22b-nca
復(fù)雜推理能力是體現(xiàn)大模型性能差異的最核心能力之一,也是大模型真正落地應(yīng)用所需的關(guān)鍵能力所在。
Eurux-8x22B 在代碼和數(shù)學(xué)等復(fù)雜推理的綜合性能方面超越 Llama3-70B,刷新開源大模型 SOTA,堪稱「理科狀元」。特別在 LeetCode (180道LeetCode真題)和 TheoremQA(美國(guó)大學(xué)水準(zhǔn)的STEM題目)這兩個(gè)具有挑戰(zhàn)性的基準(zhǔn)測(cè)試中,超過(guò)現(xiàn)有開源模型。
圖注:Eurux-8x22B 在代碼和數(shù)學(xué)等復(fù)雜推理綜合性能方面超越 Llama3-70B,刷新開源大模型 SOTA。
開源大模型「理科狀元」Eurux-8x22B在實(shí)際應(yīng)用中表現(xiàn)如何呢?
在近期 LeetCode 周賽,這一檢驗(yàn)人類程序員編程能力的真實(shí)競(jìng)技場(chǎng)上:Eurux-8x22B 在 Python 編程方面取得綜合排名超越了80% 的人類參賽選手的優(yōu)秀成績(jī),成功解決四道算法題中的三道,可以初步通過(guò)互聯(lián)網(wǎng)大廠的程序員編程面試。
下面是本次周賽中Eurux-8x22B對(duì)一道中等難度的算法題的真實(shí)解答:
除了代碼能力優(yōu)秀,Eurux-8x22B 解答數(shù)學(xué)題也是輕而易舉。
例如給它一道高中排列組合題,Eurux-8x22B 首先給出了清晰的解題思路,然后一步步地拆解執(zhí)行,再進(jìn)行結(jié)果匯總,最后得到正確答案。
再考察它一道代數(shù)題,Eurux-8x22B 直擊要害,運(yùn)用二項(xiàng)式定理,清晰簡(jiǎn)潔地給出了正確的解答。
接著給它一道向量代數(shù)題,Eurux-8x22B 也能輕松拿下。
高考函數(shù)題可能是令很多人回憶起來(lái)就頭疼的一類題,Eurux-8x22B 也能解答無(wú)誤。
(需要說(shuō)明的是,Eurux-8x22B 沒(méi)有針對(duì)中文語(yǔ)料進(jìn)行額外的微調(diào)和對(duì)齊!)
本次大模型「理科狀元」 Eurux-8x22B 的優(yōu)異表現(xiàn),得益于來(lái)自面壁 Ultra 對(duì)齊技術(shù)的大規(guī)模、高質(zhì)量對(duì)齊數(shù)據(jù)集UltraInteract上新。
好數(shù)據(jù),才有好模型。此前,面壁 Ultra 對(duì)齊技術(shù)已經(jīng)“強(qiáng)壯”了全球超 200 個(gè)大模型,堪稱大模型上分神器。
? UltraInterat對(duì)齊數(shù)據(jù)集地址:
? https://github.com/OpenBMB/Eurus
UltraInteract是專門設(shè)計(jì)用于提升大模型推理能力的大規(guī)模、高質(zhì)量的對(duì)齊數(shù)據(jù)集,包含了覆蓋數(shù)學(xué)、代碼和邏輯推理問(wèn)題的12個(gè)開源數(shù)據(jù)集的86K條指令和220K偏好對(duì),共有五十萬(wàn)(條)左右數(shù)據(jù)。相比而言,LLaMA 3-70B模型則是使用了千萬(wàn)量級(jí)的對(duì)齊數(shù)據(jù),這從側(cè)面證明了 UltraInteract 數(shù)據(jù)集的優(yōu)質(zhì)性——數(shù)據(jù)質(zhì)量勝過(guò)數(shù)據(jù)數(shù)量。UltraInteract 數(shù)據(jù)集開源后在社區(qū)受到了廣泛好評(píng)。
從領(lǐng)先的端側(cè)模型「小鋼炮」MiniCPM,到開源模型推理新 SOTA 的Eurux-8x22B,為什么面壁智能總能推出同等參數(shù)、性能更優(yōu)的「高效大模型」?答案是,大模型是一項(xiàng)系統(tǒng)工程,而面壁作為國(guó)內(nèi)極少數(shù)兼具大模型算法與 infra 能力的團(tuán)隊(duì),擁有自研的全流程高效生產(chǎn)線:面壁 Ultra 對(duì)齊技術(shù)、Infra 工藝、獨(dú)家「模型沙盒」實(shí)驗(yàn)和現(xiàn)代化數(shù)據(jù)工廠,從數(shù)據(jù)、訓(xùn)練到調(diào)校工藝環(huán)環(huán)相扣,一條優(yōu)秀的大模型Scaling Law增長(zhǎng)曲線由此而生。
Infra工藝方面,面壁構(gòu)建了全流程優(yōu)化加速工具套件平臺(tái)ModelForce,可以實(shí)現(xiàn) 10 倍推理加速,90% 成本降低。
算法方面,通過(guò)上千次以上的「模型沙盒」實(shí)驗(yàn),探索更加科學(xué)的訓(xùn)模方法。以小見大,尋找高效模型訓(xùn)練配置,實(shí)現(xiàn)模型能力快速形成。
? Eurux-8x22B模型GitHub地址:
https://github.com/OpenBMB/Eurus
? Eurux-8x22B模型HuggingFace地址:https://huggingface.co/openbmb/Eurux-8x22b-nc
? UltraInterat對(duì)齊數(shù)據(jù)集地址:
https://github.com/OpenBMB/Eurus
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。