0
本文作者: nebula | 2024-04-07 15:38 |
4月7日消息,阿里云通義千問開源320億參數(shù)模型Qwen1.5-32B,可最大限度兼顧性能、效率和內(nèi)存占用的平衡,為企業(yè)和開發(fā)者提供更高性價比的模型選擇。目前,通義千問共開源了7款大語言模型,在海內(nèi)外開源社區(qū)累計下載量突破300萬。
通義千問此前已開源5億、18億、40億、70億、140億和720億參數(shù)的6款大語言模型并均已升級至1.5版本,其中,幾款小尺寸模型可便捷地在端側(cè)部署,720億參數(shù)模型則擁有業(yè)界領(lǐng)先的性能,多次登上HuggingFace等模型榜單。此次開源的320億參數(shù)模型,將在性能、效率和內(nèi)存占用之間實(shí)現(xiàn)更理想的平衡,例如,相比14B模型,32B在智能體場景下能力更強(qiáng);相比72B,32B的推理成本更低。通義千問團(tuán)隊(duì)希望32B開源模型能為下游應(yīng)用提供更好的解決方案。
基礎(chǔ)能力方面,通義千問320億參數(shù)模型在MMLU、GSM8K、HumanEval、BBH等多個測評中表現(xiàn)優(yōu)異,性能接近通義千問720億參數(shù)模型,遠(yuǎn)超其他300億級參數(shù)模型。
Chat模型方面,Qwen1.5-32B-Chat模型在MT-Bench評測得分超過8分,與Qwen1.5-72B-Chat之間的差距相對較小。
多語言能力方面,通義千問團(tuán)隊(duì)選取了包括阿拉伯語、西班牙語、法語、日語、韓語等在內(nèi)的12種語言,在考試、理解、數(shù)學(xué)及翻譯等多個領(lǐng)域做了測評。Qwen1.5-32B的多語言能力只略遜于通義千問720億參數(shù)模型。
雷峰網(wǎng)(公眾號:雷峰網(wǎng))
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。