0
“原來我并不看好火山引擎,但現(xiàn)在有些改觀了。”在云行業(yè)已經(jīng)干了8年的張坤表示。
大模型大戰(zhàn)兩年后,雷峰網(wǎng)(公眾號:雷峰網(wǎng))再次和許多從業(yè)者聊起火山引擎這位“后進生”時,一些人對火山引擎的看法有了很大變化。
火山引擎在2021年12月正式宣布開始參與云計算市場的競爭。與其他幾家云廠商相比,這個入局時間顯得有些姍姍來遲。
回顧其他幾家云廠商,阿里云屬于最早邁出步子的人,2009年成立阿里云,并開始自主研發(fā)大規(guī)模分布式計算操作系統(tǒng)“飛天”。
而騰訊云是2013年3月正式上線運營,2018年930之后,騰訊成立CSIG,轉(zhuǎn)型產(chǎn)業(yè)互聯(lián)網(wǎng)。
華為云在集團中的地位經(jīng)歷了多次調(diào)整和提升。最初,華為云作為二級部門存在,但在短短半年內(nèi)迅速提升為一級部門,戰(zhàn)略地位僅次于華為的三大BG(運營商BG、企業(yè)BG和消費者BG),后來又重回集團業(yè)務體系。
到2021年底,火山引擎入局時,云市場已經(jīng)呈現(xiàn)四強競爭格局,以阿里云為首,占據(jù)國內(nèi)四成云服務市場規(guī)模,其次是華為云、騰訊云與百度智能云?;鹕揭孀鳛楹髞碚撸胍谶@個市場上爭得一席之地,有一場相當難的攻堅戰(zhàn)要打。
當年,以Ucloud、青云為代表的獨立云廠商即便占據(jù)先發(fā)優(yōu)勢,但在這四家云廠商進入云市場后,開始以投入10-20倍的人力,不計成本、不計收益的快速占領市場,后來獨立云廠商不得不退出了舞臺中央,站在獨立云廠商的視角來看,這個故事的確聽起來相當悲傷,但這也暗含了云市場廝殺的激烈程度。
半年以前,雷峰網(wǎng)曾與數(shù)十名云從業(yè)者交流過火山引擎能否走出不同的命運軌跡,逆襲進入云行業(yè)前三甲時,其大多給出的回答:很難,入局太晚了。
面對強勁的對手,火山引擎如何撬開云計算市場?雷峰網(wǎng)認為,核心策略之一就是價格。這種策略在云市場上掀起了不小的波瀾,火山引擎接連拿下了不少的泛互、游戲、消費電子等行業(yè)客戶,取得了高速增長。據(jù)業(yè)內(nèi)人士透露,今年火山引擎的營收目標是要前一年基礎上翻倍。
火山引擎這種發(fā)展態(tài)勢,也讓其成為了目前云市場里唯一一家還在大規(guī)模招聘的公司?!捌渌麕准以茝S商這幾年招聘需求縮減了至少30%,而火山引擎不僅招聘崗位多,而且給略有漲幅的薪資待遇。”獵頭劉赟表示。
不過,這種高速增長繁榮并未掩蓋住擔憂,不少從業(yè)者認為,短期內(nèi),火山引擎在有資源時,自然可以大力投入,但低價彈藥并非無窮盡,長期還是需要靠產(chǎn)品驅(qū)動,而目前大部分認為,火山引擎在產(chǎn)品上還很難追趕上友商。
不過,這是半年前大多數(shù)人的論斷,近半年,一些業(yè)內(nèi)人對火山引擎的評價又發(fā)生了一些變化,認為,這一波大模型正在給了火山引擎一個極佳機會,提升產(chǎn)品競爭力,同時也給了火山引擎銷售,拉開一個新的突破口。
為何說大模型正在讓火山引擎趕超老牌云廠商?
核心原因是,隨著大模型訓練推理需求的不斷增多,客戶在云底座的選用上,除了關注以往云的基礎能力外,還會進一步關心在AI infra方面的能力。而在AI infra上,所有云廠商都在同一起跑線,并且火山引擎的迭代速度幾乎是廠商里面最快的。
前不久,火山引擎Force冬季大會上新升級了以GPU為中心的AI infra分布式業(yè)務體系,通過 vRDMA 網(wǎng)絡支持大規(guī)模并行計算及 P/D 分離推理架構,提升訓練和推理效率,降低企業(yè)使用成本;EIC 彈性極速緩存解決方案,實現(xiàn) GPU 直連,使大模型推理時延降低至五十分之一,成本降低 20%。
火山引擎在AI infra上能快速迭代的原因,這要追溯到2021年火山引擎制定的產(chǎn)品戰(zhàn)略。
“從2021年起,我們就確立了兩手抓的產(chǎn)品思路,一邊抓存量,一邊做增量?!被鹕揭嬖苹A產(chǎn)品負責人羅浩表示。
火山引擎云基礎產(chǎn)品負責人羅浩
羅浩所言的存量是指傳統(tǒng)云計算的需求,包括ECS、存儲、數(shù)據(jù)庫、網(wǎng)絡、安全等一些云基礎產(chǎn)品。不可否認,作為后來者,火山引擎在這些基礎云產(chǎn)品上與其他廠商還存在差距,所以羅浩認為,在這一塊他們的核心就是要快速補齊短板。
不過,光是補齊短板遠遠不夠,如何能在產(chǎn)品上有所差異,才是贏得市場競爭的關鍵。而隨著生成式AI浪潮的到來,火山引擎隨即決定要從算力上做突圍,也就是羅浩所說的增量,來服務比如兩年前爆發(fā)的訓練需求,今天大規(guī)模的推理需求。
“早在2021年,我們就開始大規(guī)模投入AI和GPU了?!?/p>
這一戰(zhàn)略判斷,從過去一年火山引擎在AI infra上的銷售表現(xiàn),已經(jīng)可以驗證正確性,大模型公司幾乎都是火山引擎AI infra 的采購者。
如果說4年前“兩手抓”的產(chǎn)品戰(zhàn)略是火山引擎在AI infra上實現(xiàn)追趕的根基,那過去幾年的內(nèi)外部實踐則是AI infra迭代的關鍵驅(qū)動力,所有產(chǎn)品穩(wěn)定性和能力往往是在一次次業(yè)務場景中淬煉重生。
在這些實踐中,讓火山引擎AI infra加速狂奔的是豆包大模型。前不久,火山引擎總裁譚待在火山引擎Force冬季大會上公布了一個數(shù)據(jù),2024年豆包的日均token數(shù)據(jù)從5月15日的1200億,到12月18日增長到了4萬億。
要承載33倍的增長,這幾乎其他廠商都沒有遇到過的,背后對于底層AI infra 的性能、成本幾乎是一次大考。
羅浩談到,今年5月份之前,那時豆包體量還小,為了讓豆包大模型能夠良好地運行,他們通過增加更多的GPU資源來保證大模型能夠快速響應大量的查詢請求,以提升客戶的使用體驗。
但他們很快發(fā)現(xiàn),“堆量”這種方法行不通了,隨著用戶量的增加,繼續(xù)這樣做成本就變得難以承受。
優(yōu)化推理成本迫在眉睫,他們團隊開始大量分析哪些地方是“成本暴發(fā)戶”,經(jīng)過他們仔細的計算發(fā)現(xiàn),緩存和存儲部分是拉高計算成本的重要部分。
“傳統(tǒng)的緩存技術有一個問題,就是它處理數(shù)據(jù)時會繞一大圈,通過CPU再到內(nèi)存,這會導致延時增加,性能下降?!绷_浩說。
為解決這個問題,他們決定重寫整個緩存系統(tǒng)。新的系統(tǒng)完全圍繞GPU展開,不再依賴傳統(tǒng)的CPU架構。這意味著,數(shù)據(jù)可以通過一種更高效的方式直接從GPU傳輸?shù)竭h端內(nèi)存,使用一種叫做GDR,GPU Direct RDMA(GPU直接遠程內(nèi)存訪問)技術,這樣不僅減少了延時,還提升了整體性能。
這個數(shù)據(jù)傳遞過程就像是送信,原來需要通過郵局,既慢又容易出錯。而現(xiàn)在,系統(tǒng)就像給數(shù)據(jù)裝上了直通車,直接從一個人手中快速送到另一個人,省去了中間環(huán)節(jié),速度更快,準確性更高。
“這些內(nèi)外部業(yè)務,對我們的意義就是,讓我們比別人早踩坑,也早發(fā)現(xiàn)問題,早解決?!?/p>
今年5月火山引擎Force春季大會上,豆包主力模型在企業(yè)市場的定價比行業(yè)價格降低了99.3%,“這個降價99.3%并非是我們拍腦袋想的,而是建構在之前對AI infra的優(yōu)化上算出來的?!?/p>
羅浩表示,計算范式當前正在從云原生進入“AI云原生”的新時代,火山引擎以GPU為中心重新優(yōu)化計算、存儲與網(wǎng)絡架構。GPU可以直接訪問存儲和數(shù)據(jù)庫,來顯著降低IO的延遲。同時,整個系統(tǒng)提供高速互聯(lián)和端到端的安全保護。
這是國內(nèi)首次有云廠商喊出“AI云原生”的理念。如今,新架構仍在支持著豆包大模型實現(xiàn)快速的指數(shù)級業(yè)務增長。
除有豆包大模型“倒逼”外,火山引擎AI infra能夠在較短時間內(nèi)升級,也與火山引擎獨特的組織架構有關。
國內(nèi)其他幾家云廠商的產(chǎn)研團隊基本是和集團業(yè)務是分開的,但火山引擎并不是,做火山引擎的這一批人馬,就是來自字節(jié)中臺,像羅浩本人,就有兩個身份,一個是火山引擎云基礎產(chǎn)品負責人,另一個是字節(jié)跳動基礎架構云產(chǎn)品負責人,而吳迪也同樣如此,他第一個身份是火山引擎的算法負責人,另一個也是字節(jié)機器學習中臺的一位負責人。
這種組織的好處有兩個:第一火山資源和字節(jié)的資源都在一個人手上管理,這樣也能實現(xiàn)資源的充分利用;第二是人才能力上的復用。
大模型到來,除縮小火山引擎與其他廠商產(chǎn)品之間的差距外,其帶來更明顯的效果就是,為火山引擎商業(yè)化帶來了一個新的突破口。
上文也提到,作為后進生的火山引擎進入云市場時,面臨很大的一個問題就是如何打開市場,過去火山引擎用了一些價格策略的確也取得了一些成果,但這終究不是長久之計。
而這一波大模型,對于火山引擎來說,其最重要的就是手上多了一張撬動客戶的“王牌”——豆包大模型。
一名火山引擎銷售曾對雷峰網(wǎng)說過他的銷售經(jīng)歷:以前經(jīng)常找拜訪客戶由頭通常要絞盡腦汁,而且由于火山引擎在云市場是后來者,一些客戶往往會提出靈魂拷問,為什么選你?但自從大模型出現(xiàn)后,越來越多的客戶有了大模型訓練需求,一些客戶還會主動找上來問,如何去搭建自己的大模型。
趁著大模型這一波熱度,火山引擎在加速推進商業(yè)化,據(jù)資深獵頭王帆透露,今年年中,火山引擎單獨成立了一個10人不到的大模型商業(yè)化小組,這也是云廠商中唯一一家單獨成立大模型銷售團隊的,其他云廠商的大模型銷售人馬仍然是賣云的銷售、渠道。
云銷售賣大模型有一個問題是在于,技術有壁壘,一般的云銷售不一定有能力跟客戶講清楚大模型的價值、技術,而火山引擎也在寄希望于通過豆包大模型,打入更多已經(jīng)跟友商合作的客戶中去,而這也是這個小組成立的重要原因。
過去一年,可以看到火山引擎借助大模型在商業(yè)化的突破,據(jù)了解,目前豆包大模型已經(jīng)應用到了汽車、手機、金融、消費、互娛等30多個行業(yè),尤為值得一提的是汽車行業(yè),火山引擎的確拿下了不少的汽車大單。
早在去年,火山引擎先后與吉利、長城、蔚來、廣汽等多家車企達成深度合作,為車企提供了數(shù)字化營銷、智能座艙、車載聚合音視頻內(nèi)容等一系列服務。
今年5月,火山引擎成立了汽車大模型生態(tài)聯(lián)盟,一汽紅旗、東風乘用車、吉利汽車、長城汽車、廣汽乘用車、宇通客車在內(nèi)的24家整車廠、官方機構、出行生態(tài)公司等加入其中。下半年,火山引擎在汽車領域有一個重要的突破客戶,那就是奔馳。8月13日,火山引擎與奔馳簽署戰(zhàn)略合作備忘錄,雙方宣布將在大模型、生成式人工智能和大數(shù)據(jù)技術領域展開合作。
不過,也有很多人會有疑問,賣大模型是否能為火山引擎增收,畢竟眼下,OpenAI和Gemini都在不斷降價。今年5月豆包在國內(nèi)率先掀起大模型的降級潮,豆包主力模型在企業(yè)市場的定價為0.0008元/千Tokens,隨即幾個月其他廠商也迅速跟進,而12月底,火山引擎再次將視覺模型價格打下來,定價為0.003元/千Tokens。
火山引擎總裁譚待公開表示,豆包大模型的定價一步到位,有合理毛利。不過,所有廠商目前大模型API收入規(guī)模都不大。結合雷峰網(wǎng)調(diào)研發(fā)現(xiàn),月消費1萬,相當于公有云消費1000萬的客戶體量,是很大客戶了。
的確,眼下大模型帶來的收益遠遠小于投入,不過大模型的生意還要是要拉長時間維度來看,大模型應用規(guī)模上去之后,一定會帶動云的用量,據(jù)IDC報告,未來5年國內(nèi)的訓練、推理算力分別以超50%、190%的年復合增速發(fā)展,并在2028年推理算力會超過訓練算力。而到那個時候,率先在大模型上重兵投入的火山引擎,興許也更新了自己在云牌桌上的排名。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。