丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
業(yè)界 正文
發(fā)私信給nebula
發(fā)送

0

通義千問開源320億參數(shù)模型,已實(shí)現(xiàn)7款大語言模型全開源

本文作者: nebula 2024-04-07 15:38
導(dǎo)語:?4月7日消息,阿里云通義千問開源320億參數(shù)模型Qwen1.5-32B,可最大限度兼顧性能、效率和內(nèi)存占用的平衡。

4月7日消息,阿里云通義千問開源320億參數(shù)模型Qwen1.5-32B,可最大限度兼顧性能、效率和內(nèi)存占用的平衡,為企業(yè)和開發(fā)者提供更高性價比的模型選擇。目前,通義千問共開源了7款大語言模型,在海內(nèi)外開源社區(qū)累計下載量突破300萬。

通義千問此前已開源5億、18億、40億、70億、140億和720億參數(shù)的6款大語言模型并均已升級至1.5版本,其中,幾款小尺寸模型可便捷地在端側(cè)部署,720億參數(shù)模型則擁有業(yè)界領(lǐng)先的性能,多次登上HuggingFace等模型榜單。此次開源的320億參數(shù)模型,將在性能、效率和內(nèi)存占用之間實(shí)現(xiàn)更理想的平衡,例如,相比14B模型,32B在智能體場景下能力更強(qiáng);相比72B,32B的推理成本更低。通義千問團(tuán)隊(duì)希望32B開源模型能為下游應(yīng)用提供更好的解決方案。

通義千問開源320億參數(shù)模型,已實(shí)現(xiàn)7款大語言模型全開源

基礎(chǔ)能力方面,通義千問320億參數(shù)模型在MMLU、GSM8K、HumanEval、BBH等多個測評中表現(xiàn)優(yōu)異,性能接近通義千問720億參數(shù)模型,遠(yuǎn)超其他300億級參數(shù)模型。

通義千問開源320億參數(shù)模型,已實(shí)現(xiàn)7款大語言模型全開源

Chat模型方面,Qwen1.5-32B-Chat模型在MT-Bench評測得分超過8分,與Qwen1.5-72B-Chat之間的差距相對較小。

通義千問開源320億參數(shù)模型,已實(shí)現(xiàn)7款大語言模型全開源

多語言能力方面,通義千問團(tuán)隊(duì)選取了包括阿拉伯語、西班牙語、法語、日語、韓語等在內(nèi)的12種語言,在考試、理解、數(shù)學(xué)及翻譯等多個領(lǐng)域做了測評。Qwen1.5-32B的多語言能力只略遜于通義千問720億參數(shù)模型。

通義千問開源320億參數(shù)模型,已實(shí)現(xiàn)7款大語言模型全開源

 雷峰網(wǎng)(公眾號:雷峰網(wǎng))

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

分享:
相關(guān)文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說