0
作者丨何思思
編輯丨林覺民
從一個博客到一家集團型公司,值得買科技已走過了13年的時間。
2010年,秉持著為中國消費者推薦優(yōu)質商品和服務的初心,值得買科技創(chuàng)始人、董事長隋國棟搭建了自己的個人博客,在博客快速發(fā)展的過程中,隋國棟深刻地感受到僅憑一己之力很難滿足消費者的差異化需求,因此隋國棟選擇擴張團隊,“什么值得買”也由一個博客發(fā)展成一個平臺,并培養(yǎng)了一批專業(yè)的消費編輯團隊。
而后面對內容重塑消費產業(yè)格局的大背景,值得買科技在保障“什么值得買”主營業(yè)務正常運行的情況下,開始探索多種創(chuàng)新業(yè)務,最終形成了“消費內容+營銷服務+消費數據”的多元業(yè)務格局,由單一業(yè)務成為了擁有多元業(yè)務的科技集團。
回首過往13年,值得買科技的業(yè)務在不斷擴大,但不變的是其使命和愿景,即讓每一次消費產生幸福感,和成為全球最懂消費的科技公司,創(chuàng)造消費信息自由流動的美好世界。
如今,進入大模型時代,一向以“科技驅動消費進步”作為slogan的值得買科技,也選擇積極擁抱這項新技術。其實談到AI,早在2017年其主營業(yè)務“什么值得買”就開始嘗試通過算法和機器的方式生產內容,2022年,此類內容的占比已高達20.31%。
“值得買有消費內容、營銷服務、消費數據三大核心業(yè)務,對我們而言,大模型對業(yè)務的挑戰(zhàn)是很大的。現在業(yè)界有一個說法:未來互聯網上百分之90%的內容是由AI生成的。”談到大模型給公司業(yè)務帶來的沖擊時,值得買科技CTO王云峰如是說。
雷峰網了解到,為了應對此次沖擊,值得買今年年初從原來的各Team中抽調出一部分人,成立了AI Lab團隊,并率先開展了內容應用層面的研究。據王云峰透露,值得買在文、圖、短視頻、直播領域都在推進產品的開發(fā),相應的應用也會陸續(xù)開始面對消費者和客戶。
談及為何這么做?
王云峰表示,一項新技術的出現會伴有大量的不確定性因素,這個不確定性是需要通過預研的方式消弭的,也就是說一個新東西到來,你不知道誰比誰的好,也不知道最終應用的路徑是什么樣的,這時就需要有專門的資源做對應的研究和嘗試。
據王云峰介紹,在模型訓練層,值得買已經在60億參數的模型基座上完成了全參數的Post-Training,正在130億參數的模型基座上開展全參數的訓練;應用層面,則主要圍繞多模態(tài)的內容識別和生成、智能的用戶畫像和推薦、智能的營銷策略三個方向開展研究。
“其實對于大模型而言,相比算力、經費和場景,更缺的是人才”王云峰補充道。
對此,雷峰網還了解到,為了解決人才短缺的問題,除了抽調原Team內的成員外,值得買還積極和國內高等院校和創(chuàng)業(yè)公司展開合作。
以下是雷峰網和王云峰的對話:
AI概念早就有,大模型不是萬能的,還不能解決垂類問題
雷峰網:大模型今年一下就在國內火了?速度還是很驚人的。
王云峰:其實AI不是一個新概念了,AI技術的發(fā)展已經有60多年,GPT也可以叫做生成式AI——AIGC,算是一個相對新的概念。
雷峰網(公眾號:雷峰網):那GPT和之前的AI有什么不同?
王云峰:之前AI的功能是classification的概念更多一點,當然它也是AI的一部分,但更傾向于識別領域,新的AI技術其實更多的是生成式AI。
例如之前的MGC,即機器生成內容,機器生成也會用到大量的AI技術,主要是做前期的一些處理,但是它的生成過程不是靠AI,而是靠機器基于某些規(guī)則的方式來做。
去年年底國外的生成式AI確實給人們帶來了一個很驚艷的感覺。最早的生成式AI走了兩條不同的技術路線,以GPT為代表的這條技術線,去年年底真正“涌現”了出來。
雷峰網:其實現在人們對大模型還是非??春玫??
王云峰:對,現在大家更多的是把它當成一個很驚艷的東西看,認為它有無限的可能。實際上,還沒有完全弄清這個東西最終的應用限制會在哪里。大模型通用的學習和適應能力還是很強的。
但是它也有一定的局限,比如我們和GPT或國內模型對話時,舉個例子,比如問怎么挑選茶葉的問題,它只會泛泛的告訴你要注意什么?很多時候,輸出的內容并沒有能夠真正幫助消費者去決策。
現實生活中,和賣茶葉的導購對話,他通常會很細致的回答你的問題,也會通過和你的對話來了解你的需求。但模型本身的特性,就意味著這個模型原始的語料是什么樣的,學到的知識就是什么樣的。這些知識它沒有學過,所以有時候在某些領域的效果并不是很理想。
現在各種公眾號喜歡舉例的都是一些富有創(chuàng)造力、想象力的領域的東西,是那種說出來后沒有所謂對錯,看上去很新奇的內容,所以大模型可以很好地發(fā)揮,一旦落到非常垂直的領域,它的表現并不像其他領域那么理想。
雷峰網:為什么解決不了實際問題?畢竟很多人都認為大模型是萬能的。
王云峰:單純的用現有的模型來構建應用,就是既沒有微調,也沒有自己做進一步的預訓練,用的都是別人的東西,但是因為它的參數很大,所以看上去很智能。
問題是某些垂直領域的原始知識,現有的大模型根本覆蓋不到,所以沒辦法做很成型的應用,比如問一些行業(yè)的問題,可能輸出的答案看著不錯,但實際上會有錯誤。如果問它一些原始語料中不能覆蓋的,且相對聚焦的問題,它的效果遠沒有預期的好。
雷峰網:那應該怎么解決?
王云峰:一種是在別家大模型的基礎上做進一步的訓練,相當于把自己服務的行業(yè)內的知識灌進去再做訓練。我們知道大模型最開始是通過預訓練的方式學習知識,然后通過微調的方式讓它產生某種風格。這是一種做法。
蒸餾法訓練垂類模型,應用層三條線齊頭并進
雷峰網:大模型火了之后,值得買內部有哪些調整?
王云峰:我們成立了AI lab,其實成立AI lab 的核心原因在于,我們知道一項新技術的出現會伴有大量的不確定性因素,這個不確定性是需要通過預研的方式消弭。意思是一個新東西到來,你不知道誰比誰的好,也不知道這個東西最終應用的路徑是什么樣的,這時就需要有專門的資源做對應的研究。
所以今年年初我們從原來各team 里抽調出一部分人,成立了AI Lab這個新組織,目的是隔離資源,針對當下的新技術做預研,給出一個可使用的路徑。
雷峰網:對大模型對業(yè)務的沖擊,值得買有哪些應對措施?
王云峰:現在業(yè)界有一個說法:未來互聯網上百分之90%的內容是由AI生成的。所以我們必須提前做好應對。其實從今年年初時候,我們就開始研究生成式 AI 方面的應用了。最開始是用Prompt的方式來用,就是我不對模型本身做額外訓練,我只是告訴它用某種方式幫我總結這段話的意思,這段文字看上去像是人寫的。在這種情況下,對原來的內容生產方式就有一個很大的沖擊了,所以我們很早就在內容生產方面開始嘗試了。
但是我們做的更深入一點,我們訓練自己的模型。除了語言模型,有一些“多模態(tài)”的工作,比如直播的支持、短視頻的生成工作,我們也都在做。應對措施就是擁抱它,趕緊投入力量來做,腳踏實地地做。
雷峰網:具體有哪幾個項目?
王云峰:對于“多模態(tài)”的話,一是圖生圖的模型,包括圖片批量生成,比如換背景圖,換主圖,其實都可以用自動生成的方式;我們內部搭了一個服務已經開始在用了。以及文生圖的模型也在實際應用。
二是短視頻腳本的生成。短視頻腳本生成比較容易,然后就是短視頻的自動生成;這個項目的難度要大一些,耗時也會更長。
三是直播數字人,月底數字人直播應該會先發(fā)一個內部的Demo。
雷峰網:為什么數字人直播難度大?對模型的要求高?
王云峰:數字人直播包含兩個技術,一是形象,二是驅動。形象技術已經非常成熟了,難點在驅動方面。
在設計直播數字人時,你不可能讓主播單純地不停地說同一件事,直播間是要互動的,比如有人問你玉米口感怎么樣?為什么這么貴?你是要回答問題的,有時候還有在直播間聊天的,你還要把他拉回來,這就要靠大腦驅動完成,這個大腦是要專門訓練的。你不僅要了解產品,背后還要有一個對應的知識庫做支撐,這個模型就是主播的大腦。
所以形象加上背后的大腦才是完整的數字人直播。形象基本是靠成熟的技術,也有很多供應商,后面的大腦就要自己訓練了。
雷峰網:所以這三部分是在同時做?還是分步做?
王云峰:我們在同步做,因為每個產品的難度不一樣,所以推出的順序也不太一樣?,F在有些東西已經開始逐步露出了,下一步可能會把某些能力包裝成獨立的產品。
過段時間會放開評論區(qū)對話機器人,到時候可以和機器人直接對話,但是也需要灌大量的數據做訓練,數據越多,效果就越好。
雷峰網:除應用層外,大模型方面有什么成果了嗎?
王云峰:我們通過灌自己的數據、歷史長文、歷史攻略等做對應的訓練動作,這個訓練周期會比較長。因為是垂直領域,所以我們采用了蒸餾的方法。
雷峰網:選的哪家的大模型?
王云峰:像垂類模型的訓練我們嘗試了不少的方案,但在實際過程中發(fā)現基礎模型對結果的影響確實很大。
國內用的是GLM6B開源的60億參數的模型,凍結了一些層,訓練出了自己的一個模型,用于垂類消費內容的生產?,F在正在做的是基于百川發(fā)布的13B的模型做訓練。
雷峰網:至于選哪家大模型,有評測標準嗎?
王云峰:我們有一套標準的測試集,根據測試結果打分,然后再看整體分數。
雷峰網:沒有嘗試國外的模型嗎?畢竟現在國外的水平要高于國內的。
王云峰:國內外的都用過,包括Meta開源的Llama系列都嘗試過。但最終還是選了國內的,因為我們覺得中文支持這件事是非常重要的。
雷峰網:具體訓練出來的參數量有多大?
王云峰:目前已經訓練出了一個60億參數的模型,正在訓練130億參數的模型。
算力可以用錢解決,人才是最大的難點
雷峰網:做模型訓練包括應用層產品的研發(fā),消耗的算力大嗎?
王云峰:如果推理的話,類似3090的卡就能跑起來,訓練的話,對卡的要求就比較高了。
雷峰網:算力是難點嗎?好像現在大家都挺樂觀的?
王云峰:對,我覺得算力問題會被逐步解決,但需要時間。其實算力分為兩部分:一是訓練,二是推理。推理用低端的卡能跑的動就行,訓練的算力要求就很高了,但是從目前來看,我們自己儲備的訓練的算力還是比較理想的。
雷峰網:解決算力主要看芯片嗎?還是?
王云峰:我覺得最大的問題不在于芯片,而是生態(tài)問題。從長遠看,算力問題一定會被解決,只是在目前它仍舊是個問題。但是生態(tài)問題就比較復雜,比如英偉達的A100或者H100,它本身就有一套自己的開發(fā)包cuda,有完整的生態(tài)。國內雖然也有卡,但問題在于沒有構建起完整的生態(tài)體系。
比如現在要在國內的卡上跑模型,是要做很多的所謂的“算子”的適配的。也就是說,想在N卡之外的卡上跑是要遷移的,且遷移成本還挺高的。我們現在也在和國內的合作伙伴,一起做國內的卡的適配。
雷峰網:對值得買來說算力消耗的不大,那主要困難是什么?
王云峰:主要是人力不夠,為了彌齊人才短板,我們除了從各Team抽調外,還和大量的外部機構合作,比如和人民大學的高瓴人工智能學院一起在做多模態(tài)的工作。
因為現在大部分人不僅選擇文字交互,還可能用圖片、視頻等交互方式。像消費領域,有很多內容也是用視頻這樣的方式來承載的,所以我們選擇和人大合作,預計9月份第一版的模型結果會出來。
所以我們是通過兩種途徑補足AI Lab的能力,一是從各Team里抽調,二是和外部的創(chuàng)業(yè)公司或者高校實驗室合作。
雷峰網:所以最大的挑戰(zhàn)是人才?
王云峰:對,算力是能用錢解決的,但是人才問題不是用錢就能解決的了的。過了算力這關你會發(fā)現有算力也沒用,因為想要拿到一個好的結果,這個過程應該怎么訓練,用什么樣的方式訓練是需要人去選擇的。
大模型的應用有幾種方式:一是純粹的Prompt的方式,二是在大模型基礎上做訓練,三是把大模型作為框架中的一部分,再加上自己的邏輯框架。
其實是有一些框架的,比如把大模型作為前面的交互入口,后面掛一個知識庫,這個知識庫不是純粹的像MySQL一樣的知識庫,它可能是一個知識圖譜、一個向量數據庫、一個基于embedding 的數據等等。那你究竟用什么方式、怎么串聯起來,才能克服幻覺的問題拿到好的結果,這些都不是算力能解決的問題,是需要人去做選擇的。
比如我們做的對話機器人就有很多選擇:第一種,直接和大模型對話,通過提示的方式,把問題給到大模型,但是這個過程中,你會發(fā)現大模型的輸出能力是有限的,每秒鐘也只能輸出幾十個TOKEN ,一次交互下來 30 秒出去了,用戶肯定接受不了;
第二種,比如現在有一些對話框架的,就實際上它自身是一個框架,再外掛一個模型做識別,以保證交互的效率;
第三種,把模型本身做入口,然后做一個插件,通過這個插件返回外部的數據庫拿到事實后再進行內容輸出。
究竟哪種方式可以,哪種是未來的趨勢和方向是需要思考和判斷的。
雷峰網:也就是說大家還在試驗階段,還不清楚哪種方式更適合?
王云峰:對,這確實是個問題,或者說不同的場景下,用什么方式還沒有范式。比如我們和合作伙伴溝通,有的建議先搭好大模型的框架,然后做插件,這樣就可以利用大模型泛化的能力解決問題。但也有不同的意見,究竟哪個更好,現在誰也不知道,需要根據自己的實際情況判斷,所以最后看的還是人才。
大模型市場越來越繁榮,是好事也是壞事
雷峰網:從年初到現在對大模型(GPT)有沒有改觀?
王云峰:能力越來越強,進化速度越來越快了。主要是工程能力和智能能力變化的非???,每天都有新的東西出現,但是我覺得還在發(fā)展中,還沒有完全定型。
雷峰網:隨著大模型的火熱,國內外做大模型的越來越多,您怎么看?
王云峰:是好事也是壞事,好事是有很多選擇,壞事是選擇實在太多了。
雷峰網:為什么這么說?
王云峰:我覺得國內大模型還處在早期階段,還沒有形成固定的格局。從服務能力上看,國內的模型,當下和ChatGPT還是有很大差距的,這是大家都承認且沒辦法的事情。另外,因為開源模型可以直接用,所以開源模型已經霸屏了,都在搶宣傳位。
雷峰網:那國內的您比較看好哪家?
王云峰:我可能比較看好一些創(chuàng)業(yè)型公司,我會覺得大廠之外的大模型公司可能更純粹一些,機會也更多一些,包袱比較小,完全可以用創(chuàng)新的方式去做,比如百川。其次是高校,中國高校發(fā)展的比較早,確實搶占了先機,雖然目前偏重研究而不是工程,但我覺得其實只要適當地做到研究成果工程化,就未來可期了,比如智譜。
雷峰網:大廠中有沒有比較看好的,或者是有潛力的?
王云峰:我比較看好華為,華為其實屬于大模型另外一個賽道里的玩家,從一定程度上講,華為是有大模型積累的,它既有算力、有硬件、有軟件,也有自己的模型,它完全可以給行業(yè)做深度服務,所以我覺得華為比較厲害。
垂類模型比拼的是算力、人才和行業(yè)
雷峰網:通用模型和垂類模型哪個更容易商業(yè)化推廣?
王云峰:我覺得垂類模型可能場景更聚焦一點。各有自己的市場。但是垂類模型的難度并不比通用模型小,因為垂類領域的要求更高。
雷峰網:難在哪里?做垂類模型比拼的是什么?
王云峰:比拼的是大家對行業(yè)的理解,如果你正常設計一個直播數字人的話,如果沒有行業(yè)的理解,很有可能是一個端莊,顏值很高,說話語氣很舒緩、手部有一些簡單的動作的產品,事實上直播完全不是這樣的。
所以你必須知道大家平均在直播間停留的時間有多長、必須知道直播有忙時有閑時、必須知道什么時候全身出鏡什么時候半身出鏡、必須知道直播間里的人的分工和配比,背后的模型,也就是大腦的訓練是要結合主播的語氣、主播的風格,甚至要跟這個行業(yè)相匹配的方式做對應的串聯,這樣才能保證大家看到的是一個真實的東西。否則就會設計出來一個傻傻的主播。
很多專業(yè)領域也一樣,要知道哪個環(huán)節(jié)是容錯率高的,哪個環(huán)節(jié)是容錯率低的,這樣才能保證是一個好的應用,否則就是一個泛泛的、拉平的東西。
雷峰網:所以咱們的產品剛設計出來也是這樣的?
王云峰:對,我們的產品最初設計出來就是這樣的(笑),極傻。所以我認為,大模型本身需要人才,但如果做垂類的話,除了模型本身外,還要了解行業(yè)Know-How,否則是做不出來的。
雷峰網:聽下來感覺做一個應用并不比做大模型簡單?
王云峰:其實是這樣的,大模型也是經過很長時間才突破到現在這個程度的,突破之前沒有人知道它是誰。我們觀察發(fā)現現在國內還沒有一個特別成功的應用出現。為什么?中國缺聰明人嗎?不缺。中國缺場景嗎?不缺。中國缺錢嗎?不缺。那是為什么?只能說明一件事,大模型的應用也的確有難度。
雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知。