0
大模型之戰(zhàn),已經(jīng)進入了一個新的階段。
在從ChatGPT發(fā)布算起,國內(nèi)公司“跑步進場”的大約半年里,大模型競爭的焦點集中在類ChatGPT的通用語言模型上。
然而到了7月,在上海的 WAIC 2023 上,討論通用大模型的聲量則開始在悄無聲息中降低。
首先是用戶對大模型的認知發(fā)生了改變:從6月初起,“ChatGPT變笨了”的話題一度在社交媒體上引發(fā)討論。用戶在寫作、繪畫等AIGC領(lǐng)域的新鮮勁開始退去,當他們試圖用ChatGPT解決實際問題時,往往難以得到滿意的答案;
另一方面,基于醫(yī)療、金融、教育等垂直行業(yè)的大模型開始出現(xiàn)。而已經(jīng)發(fā)布通用大模型的公司,也在針對行業(yè)推出模型服務(wù),發(fā)力行業(yè)模型,已經(jīng)成為各家的共識。
在 WAIC 2023 上,更多人開始關(guān)注能夠真正扎進行業(yè)、給企業(yè)帶來生產(chǎn)力躍升的大模型產(chǎn)品。
當大模型競爭的重點從通用大模型轉(zhuǎn)向行業(yè)大模型,又將產(chǎn)生什么樣的變化?
ChatGPT帶火了大模型產(chǎn)品的研發(fā),然而在過去幾個月中,這些涌現(xiàn)出來的ChatGPT大模型產(chǎn)品通常都偏向于“對話交互型”而非“知識增強型”,這意味著,大多數(shù)C端用戶與AI的交互偏向于“閑聊”而非“啟發(fā)/創(chuàng)造”。
如雷峰網(wǎng)此前在《大模型時代的三道鴻溝:數(shù)據(jù)、成本與想象力》一文中所提及,在第一個賽段即類ChatGPT的競逐中,各個廠商比的不是“武功”,而是“想法”:由于C端用戶的付費意愿偏低,到目前為止,只有ChatGPT這種產(chǎn)品形態(tài)在To C市場得到了驗證;在過去幾個月,國內(nèi)大模型產(chǎn)品設(shè)計一味追隨 ChatGPT,將問題的定義交給用戶(俗稱“AI 召喚師”),導(dǎo)致了嚴重的同質(zhì)化現(xiàn)象。
同時,通用大模型只能在通用屬性強的場景中應(yīng)用,在B端,技術(shù)還未完備的情況下,通用的大模型由于缺乏專有領(lǐng)域的知識,很難實際落進行業(yè)場景,產(chǎn)生生產(chǎn)力。
通用大模型解決不了專業(yè)的問題,而那些相對簡單的問題,用戶也不見得非要使用大模型進行解決。
不能幫助用戶解決實際的問題——這是大模型的商業(yè)鏈路中,一個急需解決的巨大 Bug?!按笫麓鸩涣?,小事不用答”,現(xiàn)時的通用大模型就處在這樣一個不上不下的位置上。
如果沒有能夠發(fā)揮效用的“立身之本”,大模型就只能像一個氣球,越吹越大,越飄越高。
感到路徑出現(xiàn)了誤差,廠商們便隨即開始調(diào)轉(zhuǎn)車頭,把正在“飄向空中”的大模型“拽”回地面,落進場景,給客戶帶來實際的“降本增效”。如何在通用與行業(yè)兩個方向平衡,則成為了大模型廠商關(guān)注的問題。
當中最為典型的案例,是今年3月推出的金融行業(yè)模型 BloomBergGPT。它在私有金融任務(wù)上的表現(xiàn)出了遠高于當前的通用GPT模型的能力。
在相關(guān)論文中,作者認為,對模型效果提升促進最大的三個因素依次為精心清洗的高質(zhì)量數(shù)據(jù)集、合理的標記器(tokenizer)、合理的模型結(jié)構(gòu)。
這也為大模型廠商們在AI 2.0 的賽道上指明了一條道路:如果垂直領(lǐng)域的任務(wù)足夠復(fù)雜、數(shù)據(jù)足夠獨特且數(shù)據(jù)量足夠大,自主研發(fā)垂直領(lǐng)域的大型模型,可能是一個至少在短期內(nèi)讓大模型落地、解決行業(yè)需求痛點的策略。
誰先占領(lǐng)行業(yè),誰就更先占領(lǐng) To B 和 To C 先機;誰先讓大模型產(chǎn)生實際的效用,誰就能先入“咸陽”。
但一個大模型,要完成面向行業(yè)的落地談何容易?
對于一個大模型的提供方來說,必須得能夠?qū)嵈驅(qū)嵉亍霸边M場景,了解企業(yè)的痛點,并針對性地尋找大模型所獨有的解決方案。
而在這一點上,率先提出行業(yè)大模型的騰訊,深有感觸。
“企業(yè)需要的,是在實際場景中真正解決了某個問題,而不是在100個場景中,解決了70-80%的問題?!?/strong>騰訊集團高級執(zhí)行副總裁、云與智慧產(chǎn)業(yè) CEO 湯道生,在6月19日騰訊行業(yè)大模型的發(fā)布會上如是說。
湯道生指出,在許多產(chǎn)業(yè)場景中,用戶對企業(yè)提供的專業(yè)服務(wù)有著“要求高,容錯低”的需求。另一方面,訓(xùn)練數(shù)據(jù)越多,模型越大,訓(xùn)練與推理的成本也越高;除此之外,安全和合規(guī)也是企業(yè)需要考量的因素。
騰訊更專注于解決落地實際的問題,而通用大模型不能徹底解決用戶的所有問題。
圍繞產(chǎn)業(yè)客戶的需求,騰訊云公布了全新的MaaS(模型即服務(wù))全景圖。有意思的是,他們也是國內(nèi)首家沒有單純押注通用大模型,而是率先系統(tǒng)性公布行業(yè)大模型,選擇基礎(chǔ)研究和產(chǎn)業(yè)落地兩條腿走路的大模型實踐路徑。
在這之后,金山、華為、字節(jié),也都相繼發(fā)布行業(yè)大模型相關(guān)解決方案,意在給行業(yè)帶來實打?qū)嵉男伦兓?、新可能?/p>
要在實際場景能真正解決問題,大模型對場景的理解,才是真正的關(guān)鍵。
從某種意義上說,在大模型之戰(zhàn)的第一階段,短短3個月內(nèi)就有80多個大模型問世,更多的是屬于“普及”,證明自己具有“對標ChatGPT”的能力,而6月之后的這一波行業(yè)大模型落地浪潮,才是真正“秀肌肉”的開始。
“930”變革后,湯道生曾將做To C業(yè)務(wù)的感受比作空軍開飛機:當做產(chǎn)品時,不需要與每個用戶直接交流,只需通過用戶的使用體驗就可以發(fā)現(xiàn)問題并解決問題。這就像在天空中飛行,進行幾次飛行和轟炸后,炸彈就能覆蓋一大片區(qū)域。
而To B業(yè)務(wù)則更像是陸軍打仗,需要親自下場,與每個客戶面對面會談了解需求,談AI能夠為他們做什么,以及需要提供哪些方面的能力。
正是因為 To B 經(jīng)驗不淺,騰訊深知,說是“行業(yè)模型”,即使是同一個行業(yè),不同的企業(yè)的需求也千差萬別。一套模型方案,想要深入細致地理解企業(yè)的需求,就必須做詳細的定制——而如果大模型采用定制化的項目制模式,又將不可避免地走向 AI 1.0 時代的老路。
大模型要“落地”,就必須要完成“適用化”的革命。而騰訊行業(yè)大模型的嘗試,或許對于其他廠商有一些借鑒的價值。
一個模型不夠,就打造一個模型的“精選商店”——依托騰訊云的 TI 平臺,騰訊行業(yè)大模型給出的方案,是在平臺上開放多個模型,企業(yè)在選用了更加適合的模型后,可以針對自己的具體需求,進行定制化的訓(xùn)練。
搭配完善的模型工具鏈,并有配套的方法指導(dǎo)和流程服務(wù),讓用戶能夠自主地在標品模式下,自己解決大模型的定制化需求。
而在這個模式下,大模型開發(fā)者的工作,就從定制產(chǎn)品,變成了標品制作+售后服務(wù)的“解決方案”提供方——這也是一種比較理想和健康的 MaaS 商業(yè)模式。
有“精選商店”解決算法問題,算力和數(shù)據(jù)側(cè),騰訊云的落地方案也比較務(wù)實。
算力側(cè),新一代的高性能計算集群(HCC),通過“眾人拾柴火焰高”的規(guī)模效應(yīng),讓單機算力形成1+1>2的效果。
以騰訊云配套的 HCC 為例,不僅有英偉達最新代次 H800 GPU 的“一騎當千”,也有自研的星星海服務(wù)器,與3.2T的超高互聯(lián)帶寬,優(yōu)化了處理器、網(wǎng)絡(luò)架構(gòu)和存儲性能,也讓大集群的算力損耗能夠最大程度降低。
而數(shù)據(jù)側(cè),當下行業(yè)的關(guān)注點,更多放在數(shù)據(jù)的篩選、清洗和標注等基礎(chǔ)工作上,卻往往忽視了數(shù)據(jù)庫建構(gòu)的重要性。
在云業(yè)務(wù)有多年的經(jīng)驗積累,騰訊自研的向量數(shù)據(jù)庫,也給了行業(yè)大模型不少支持。
在應(yīng)用了自研的 AI 原生向量數(shù)據(jù)庫 Tencent Cloud VectorDB 之后,騰訊的行業(yè)大模型在預(yù)訓(xùn)練數(shù)據(jù)的分類、去重和清洗過程中,效率相比傳統(tǒng)的解決方案能夠產(chǎn)生10倍的提升;
如果將向量數(shù)據(jù)庫作為外部知識庫,來輔助大模型完成推理,成本則可以完成2-4個數(shù)量級的降低。
模型精選商店+高性能算力集群+AI 原生向量數(shù)據(jù)庫,騰訊云的這套打法,給大模型廠商趟出了一條可能的路。
AI 的“功法”縱然重要,但大模型的“華山論劍”終究不是紙上談兵,真正能夠分出高下的,是在實際場景中實打?qū)嵉摹皯?zhàn)績”。
需要注意的一點是:目前看來,并非所有的場景都適合應(yīng)用大模型技術(shù)。
對此,騰訊云副總裁、騰訊云智能與優(yōu)圖實驗室負責人吳運聲感觸頗多。
“我們一直在思考和探索,大模型和各行業(yè)結(jié)合背后最本質(zhì)的邏輯是什么?”在WAIC 2023會場,吳運聲曾提到騰訊對大模型與真實場景結(jié)合的思考。“其實只有兩點:一是技術(shù)的根本出發(fā)點是解決實際問題,二是如果不能深入行業(yè)探索,便不能真正解決行業(yè)面臨的問題?!?/p>
而據(jù)雷峰網(wǎng)此前調(diào)研,大模型在企業(yè)落地也存在兩個難以落地的盲區(qū):一是數(shù)據(jù)安全,二是成本可控。
先前提到騰訊扎進行業(yè)場景,金融行業(yè)就是一個典型的例子。
以金融業(yè)務(wù)中常見的銀行單據(jù)處理場景為例,單據(jù)處理場景涉及到大量銀行回單、交易發(fā)票、跨境匯款申請書、業(yè)務(wù)往來郵件、傳真等非標數(shù)據(jù),需要整理、錄入系統(tǒng),是不少業(yè)者難以逃離的“噩夢”。
某國家首批股份制商業(yè)銀行與騰訊合作,騰訊TI-OCR大模型,可以在 Prompt 的調(diào)優(yōu)的基礎(chǔ)上,不經(jīng)過額外訓(xùn)練直接支持常規(guī)下游任務(wù),零樣本學(xué)習泛化召回率可以達到93%、小樣本學(xué)習泛化召回率則能達到95%。
從樣本收集、模型訓(xùn)練到部署上線,實現(xiàn)全流程零人工參與,建模時間也從2周減少到僅需2天。
另一個傳統(tǒng)機器學(xué)習得以廣泛應(yīng)用的場景金融風控,在實際業(yè)務(wù)中,很多時候受限于積累的樣本有限,或者是新品剛剛上線,面臨“零樣本”搭建風控體系,制定策略非常困難?;隍v訊云風控大模型豐富的場景樣本快速搭建能力,可以幫助客戶跳過“冷啟動”過程。
除了上述需要判別式AI能力的場景,大模型的生成能力還將為金融行業(yè)帶來更大的驚喜。
如上述銀行客戶提出,在他們此前智能客服場景的實踐存在幾個痛點:知識維護量大;冷啟動知識配置成本高,且需要持續(xù)投入運營;由于知識邊界受限,不在知識庫的問題無法回復(fù)或者答非所問,等等。
而通過行業(yè)大模型快速接入多個知識來源,同時直接對接銀行API進行任務(wù)式對話問答,騰訊幫助客戶打造了專屬AI助手,提供智能咨詢、輔助分析、決策等服務(wù),助力客戶多個核心業(yè)務(wù)智能化、健康發(fā)展。
另一個案例中,騰訊云 TI 平臺通過訓(xùn)練工坊和模型服務(wù)功能,幫助上海金融期貨信息技術(shù)有限公司(簡稱“中金所”)解決了算法服務(wù)運維成本高、資源分配不合理、算法框架重復(fù)構(gòu)建、依賴版本沖突等問題,降低了算法框架搭建成本和人力投入。
通過提供 restful 服務(wù),以服務(wù)化的方式將算法通過平臺提供給其他部門使用,騰訊云 TI 平臺已成功支持中金所及技術(shù)公司內(nèi)部的智慧屏和三大平臺系統(tǒng),每日調(diào)用峰值高達1億次,整體調(diào)用成功率超過了99%。
眼見眾生,心在天地。大模型不僅要面向客戶的需求,提供生產(chǎn)力的躍升,作為近10年最大的一波技術(shù)革命,AI 也給產(chǎn)業(yè)的自我更新帶來了新的可能和廣闊的想象空間。
在 WAIC 2023 上,騰訊展示了不少行業(yè)大模型落地的案例,從金融、文旅、政務(wù)、傳媒、教育等10大行業(yè)中,孵化出了超過50個針對性的解決方案,行業(yè)覆蓋力驚人。
“AI大模型技術(shù)發(fā)展和產(chǎn)業(yè)探索,離不開產(chǎn)業(yè)鏈協(xié)同和生態(tài)共建,這也是騰訊在AI發(fā)展方面一直堅持的態(tài)度?!痹?WAIC 2023 上,吳運聲如此總結(jié)道,“我們愿與行業(yè)伙伴攜手,去探索無限的可能性?!?/p>
AGI 的夢想再絢爛,大模型的落地才是真功夫。
十年前的 AI 1.0 時代,雷峰網(wǎng)(公眾號:雷峰網(wǎng))早已見識過 AI 賽道的炙手可熱。
“必須扎到行業(yè),必須創(chuàng)造價值,一家 AI 服務(wù)的提供商才能活下去?!蔽虻竭@個道理,不少人工智能公司花了整整十年的時間。
頂層的設(shè)計往往充滿著不確定性,而市場的判斷卻是樸素而直接的:誰能給我?guī)硎找?,誰就是于我有用的;誰能給我?guī)砀嗟膬r值,我就用腳為他“投票”。
大模型競逐的第二個賽段,勢必圍繞市場和業(yè)界展開,對于技術(shù)和產(chǎn)品齊備的玩家來說,當下的“必爭之地”,就是在市場上獲得認可,并通過端到端的模式,形成一套能夠越轉(zhuǎn)越快的數(shù)據(jù)飛輪,積累更多的大模型 Know how,最終在萬事俱備的情況下,做更好的通用大模型。
誰先在行業(yè)站穩(wěn)第一只腳,誰就能更早迎接 AI 的下一個飛速發(fā)展期。
(后續(xù),雷峰網(wǎng)將持續(xù)關(guān)注這個足稱偉大的 AI “英雄時代”,歡迎添加作者微信:william_dong,交流認知,互通有無。)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。