0
自年初 DeepSeek 爆火后,越來越多企業(yè)開始嘗試通過 AI 提升效率。此時擺在面前的問題是:到底是通過云服務(wù)購買 Token,還是采購 AI 一體機(jī)或服務(wù)器進(jìn)行私有化部署?
多位業(yè)內(nèi)人士對雷峰網(wǎng)(公眾號:雷峰網(wǎng))表示,從長遠(yuǎn)看,基于云的 AI 部署方式將成為主流。一方面,AI 能力仍在快速演進(jìn);另一方面,企業(yè)在探索 AI 應(yīng)用的過程中,其所需的算力和能力也會不斷變化,云計算因而展現(xiàn)出更強(qiáng)的靈活性和部署效率。
在2025火山引擎春季原動力大會的英特爾分論壇上,英特爾技術(shù)專家對雷峰網(wǎng)表示:“一些企業(yè)的需求長期穩(wěn)定,一旦現(xiàn)有AI解決方案成功部署,就不需要頻繁更換解決方案,這類客戶更傾向于私有化部署?!?/p>
正如華勝天成助理總裁郭濤在論壇上所言:“AI 的價值不在技術(shù)本身,而在于是否真正幫助客戶降本增效。”
因此,AI 部署方式的選擇應(yīng)依據(jù)企業(yè)的業(yè)務(wù)需求和特點(diǎn)而定,甚至可以采用云與私有化結(jié)合的混合部署方案。因為英特爾與火山引擎合作,提供既支持私有化、又支持云端部署路徑。
值得一提的是,AI部署不是非GPU不可,至強(qiáng)CPU在許多場景中也是非常好的選擇。
云端彈性算力部署 AI,成本最高可節(jié)省 83%
云端部署之所以被認(rèn)為是未來主流,關(guān)鍵在于其彈性算力和高性價比。
“圍繞大模型的負(fù)載,不僅需要大量的GPU算力,同時也需要CPU的算力協(xié)同配合,這種分工模式要求企業(yè)必須同步升級兩類算力資源,以滿足端到端的AI業(yè)務(wù)需求?!被鹕揭嬖苹A(chǔ)產(chǎn)品經(jīng)理負(fù)責(zé)人李越淵指出,火山引擎ECS通過高度協(xié)同CPU與GPU,提升數(shù)據(jù)處理效率;提供高彈性,并且能夠保障客戶的安全隱私。
火山引擎2025春季原動力大會上,火山引擎與英特爾聯(lián)合發(fā)布了全新第四代 ECS 實例家族,基于最新的英特爾至強(qiáng) 6 處理器,性能與架構(gòu)全面升級。
相較前一代實例,通用計算基礎(chǔ)型實例g4i在MySQL數(shù)據(jù)庫與Web應(yīng)用中分別實現(xiàn)了20% 和19%的性能提升;算力增強(qiáng)型實例在視頻解碼和圖像渲染上分別提升15%和26%;I/O增強(qiáng)型實例在Spark大數(shù)據(jù)與Redis數(shù)據(jù)庫上實現(xiàn)了13%和30%的提升。
第四代 ECS 實例的網(wǎng)絡(luò)與存儲能力也實現(xiàn)全面升級,整機(jī)網(wǎng)絡(luò)和存儲帶寬提升100%,IOPS 和PPS提升30%以上,CPU主頻提升20%。
除了通用場景的性能提升,針對AI應(yīng)用,基于最新四代實例,火山引擎聯(lián)合英特爾在RAG 應(yīng)用進(jìn)行了深度優(yōu)化,涵蓋上傳文檔處理、Embedding 向量化、向量檢索、Reranking 排序四大環(huán)節(jié)。借助至強(qiáng)6處理器內(nèi)置的AMX加速指令集,任務(wù)耗時最多可減少90%,顯著提升全鏈路效率。
針對廣泛應(yīng)用于推薦和廣告投放的經(jīng)典 WDL(Wide & Deep Learning)模型,火山引擎與英特爾團(tuán)隊進(jìn)行了深入研究,通過AMX優(yōu)化,CPU的推理性能實現(xiàn)了質(zhì)的飛躍。優(yōu)化后,CPU實例吞吐能力提升114%,顯著提升模型推理效率。
這些提升都以英特爾至強(qiáng)6處理器性能的大幅提升作為基礎(chǔ),在通用計算、Web service及AI等領(lǐng)域,至強(qiáng)6的6900系列CPU性能總體提升高達(dá)2倍以上,同時提高了1.4倍的性能功耗比改善。
相同功耗的情況下,至強(qiáng)6處理器相對上一代提升了1.4倍以上的性能。如果核心數(shù)固定,除了功耗改善之外,仍然可以提供20%的性能提升。對于云計算,至強(qiáng)6可以實現(xiàn)2倍的核心密度、20%的單核性能提升、60%的性能功耗比,以及最終會實現(xiàn)代際的30%的TCO收益。
結(jié)合火山引擎推出了業(yè)界首創(chuàng)的"彈性預(yù)約實例"售賣模式,客戶可以提前預(yù)約抖音的潮汐資源,同時獲得按量使用的體驗以及接近包年包月的價格。
李越淵介紹,相較常規(guī)按量計費(fèi)實例,彈性預(yù)約實例使用方式下,最高能夠節(jié)省83%的算力成本,目前彈性預(yù)約的售賣方式已全面支持CPU和GPU實例。
如何降低云端部署 AI 的門檻?
云計算彈性靈活的另一面,是有一定的開發(fā)門檻。降低開發(fā)門檻,依賴好的軟件棧。
英特爾專家表示,優(yōu)秀的軟件棧需要具備幾個條件:首先,具備開箱即用性,能在新環(huán)境中快速啟動并運(yùn)行一個具有實際價值的“Hello World”示例,幫助用戶快速上手;
其次,應(yīng)具備可觀察性與可修改性,核心組件應(yīng)透明可見、可調(diào)整,避免成為“黑盒”,這也是開源的重要價值之一;
最后,考慮到AI應(yīng)用的復(fù)雜性,軟件棧應(yīng)具備良好的模塊化與容器化架構(gòu),便于靈活組合與高效部署。
綜合以上的考量,英特爾基于開源項目OPEA,將其變成了一個集成類的開源項目,并且在火山云上提供了一個基于OPEA的開發(fā)環(huán)境,提供了像聊天機(jī)器人的應(yīng)用,后續(xù)還將持續(xù)更新。
這只是入門,要落地AI還需要持續(xù)進(jìn)階?!巴ㄟ^系統(tǒng)化的設(shè)計之后,我們在網(wǎng)上推出了‘云端進(jìn)化論’系列課程,通過在線提供的進(jìn)階視頻,讓開發(fā)者看到整個鏈路里端到端的技能分解評估和優(yōu)化的手段?!庇⑻貭柤夹g(shù)專家介紹。
為進(jìn)一步應(yīng)對 AI 的系統(tǒng)復(fù)雜性,英特爾將各種服務(wù)通過容器化的方式封裝,在火山引擎上提供十幾種不同的服務(wù),幫助開發(fā)者好理解其內(nèi)在邏輯的同時,后期開發(fā)者無論做關(guān)鍵模塊的替換、升級或者做多個實例的擴(kuò)展,微架構(gòu)的方式都更加方便。
目前,在火山引擎 g4il 實例中,用戶可在操作系統(tǒng)選項中看到一個名為“開源大模型應(yīng)用知識問答”的新鏡像,基于 OPEA,經(jīng)過選擇、點(diǎn)擊、啟動的步驟,即可在兩分鐘內(nèi)部署一個可用的聊天機(jī)器人實例。
進(jìn)階到更復(fù)雜的 Agent 應(yīng)用,英特爾將 RAG 知識庫、工具鏈與多模態(tài)組件封裝為 MCP Server,通過統(tǒng)一接口向 Agent 開放調(diào)用。
“通過和火山引擎的合作,我們提供了低門檻、觸手可及的硬件環(huán)境,提供了開放、白盒使用的軟件棧,提供了豐富的從專門到專家,從簡單到復(fù)雜全套的培訓(xùn)視頻?!庇⑻貭柤夹g(shù)專家說,“這些都是為了降低AI在云端部署的門檻。”
當(dāng)然,AI 普及的仍需要產(chǎn)業(yè)協(xié)作。
正如英特爾中國互聯(lián)網(wǎng)行業(yè)總監(jiān)李志輝所說:“芯云協(xié)同已進(jìn)入新階段,從技術(shù)融合邁向生態(tài)共建。我們呼吁更多合作伙伴共同參與,建立跨芯片、云服務(wù)、應(yīng)用層的開放標(biāo)準(zhǔn),降低生態(tài)協(xié)作成本?!?/strong>
32B 模型:邊緣部署 AI 的甜點(diǎn)
即便云計算足夠靈活高效,對于高度關(guān)注隱私的企業(yè)而言,私有化部署仍是首選,而高性價比的一體機(jī)是其理想之選。
這類方案不僅要求硬件平臺性價比高,還要確保 AI效果能滿足業(yè)務(wù)需求。
“32B的模型是一個很好的價值點(diǎn)?!庇⑻貭柤夹g(shù)專家說,“32B模型的性能表現(xiàn)出色,遠(yuǎn)超足夠好的范圍。另外,因為模型相對小,對算力的需求比較低,使用消費(fèi)級GPU就能滿足一些邊緣應(yīng)用落地的需求?!?/strong>
基于英特爾至強(qiáng)處理器和多張英特爾銳炫顯卡的一體機(jī)解決方案,采用全新的英特爾銳炫 Pro B60,單卡可提供24GB顯存,在上下文擴(kuò)展和并發(fā)擴(kuò)展等場景中,提供更強(qiáng)的處理能力。
不過,硬件只是基礎(chǔ),開發(fā)者更關(guān)心遷移成本。為此,英特爾提供了包括 vLLM、PyTorch 在內(nèi)的完整軟件棧及服務(wù)化企業(yè) AI 平臺(EAP),幫助客戶順利遷移至英特爾平臺。
“我想強(qiáng)調(diào),除了提供這套服務(wù)之外,我們和業(yè)界很多的應(yīng)用打通,比如說英特爾與跟火山引擎的HiAgent合作。”英特爾技術(shù)專家表示。
HiAgent 是火山引擎基于 Agent DevOps 理念打造的智能體平臺,支持模型接入、推理、精調(diào)及私有化集成。在英特爾的一體機(jī)方案中,用戶可直接部署HiAgent滿足企業(yè)級AI私有部署需求。
目前,英特爾與火山引擎HiAgent、華勝天成聯(lián)合打造了基于英特爾銳炫顯卡算力平臺的HiAgent一體機(jī)方案,能夠為市場提供高性價比、可擴(kuò)展性更強(qiáng)的AI一體機(jī)方案。
華勝天成在自身的業(yè)務(wù)中積極推進(jìn) AI 落地,并將其服務(wù)能力拓展至更多客戶。作為擁有 20 年智能呼叫中心經(jīng)驗的企業(yè),華勝天成打造的智能體產(chǎn)品已廣泛應(yīng)用于金融、煙草、汽車等多個行業(yè)。
華勝天成的另一個產(chǎn)品投標(biāo)大王,最早是用于內(nèi)部,因為華勝天成作為一家集成商,每年要投上千個標(biāo),使用了投標(biāo)大王之后,提高了近50%的效率。
如今,到底如何部署AI的答案已不再模糊。無論是技術(shù)上還是生態(tài)上,英特爾、火山引擎等合作伙伴均已提供完備的私有化與云端 AI 解決方案,并持續(xù)降低部署門檻。
關(guān)鍵在于,企業(yè)能否找到適合應(yīng)用 AI 的業(yè)務(wù)場景,將其價值真正落地。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。