0
本文作者: 包永剛 | 2023-05-15 18:13 |
AI芯片公司直接提供云服務(wù)似乎成了新的風(fēng)潮。
市場(chǎng)領(lǐng)導(dǎo)者英偉達(dá)在GTC 2023上宣布會(huì)基于Oracle的云基礎(chǔ)設(shè)施提供AI云服務(wù)。
美國(guó)AI芯片獨(dú)角獸SambaNova也做同樣的事情,以云服務(wù)的方式提供AI算力。
英國(guó)AI芯片獨(dú)角獸公司Graphcore近期也進(jìn)行了策略的調(diào)整,其CEO Nigel Toon表示在英國(guó)和美國(guó)會(huì)和云廠商緊密合作,以云產(chǎn)品的形式提供算力,不再單獨(dú)銷售芯片產(chǎn)品。
不過Graphcore中國(guó)區(qū)并未跟進(jìn)英國(guó)總部不單獨(dú)銷售芯片產(chǎn)品的策略。
“中國(guó)和總部的策略后續(xù)會(huì)不太一樣。我們?cè)跇I(yè)務(wù)、策略上還是一以貫之,繼續(xù)以銷售硬件,自己安裝產(chǎn)品的形式提供AI算力?!盙raphcore總裁,大中華區(qū)總經(jīng)理盧濤表示,
“在中國(guó),我們還是比較堅(jiān)定地走被云廠商集成的策略,Graphcore中國(guó)還是這樣的商業(yè)模式。”
為什么在中國(guó)不直接提供云服務(wù)?
Graphcore總部和中國(guó)區(qū)戰(zhàn)略不同的核心在于到底是賣云服務(wù)還是直接賣芯片,讓人好奇的是,為什么中國(guó)區(qū)做出了不一樣的選擇?
盧濤解釋,中國(guó)的產(chǎn)業(yè)業(yè)態(tài)和美國(guó)、歐洲有很大區(qū)別,比如,美國(guó)基本所有互聯(lián)網(wǎng)公司都架構(gòu)在AWS、Azure和Google Cloud這三朵云之上。中國(guó)有很多優(yōu)秀的云廠商,但也有很多選擇自建數(shù)據(jù)中心的大型互聯(lián)網(wǎng)公司。一些公司原本是云廠商的大客戶,隨著自身體量增加也做了大量的自建。
“這些大體量用戶尤其是頭部用戶的自建行為讓我們發(fā)現(xiàn)他們更希望被提供硬件形式的服務(wù)。云也非常重要,但我們希望Graphcore能成為中國(guó)云廠商產(chǎn)品的一部分,而不是做一個(gè)Graphcore自有品牌的云?!北R濤說明了中國(guó)區(qū)堅(jiān)持原有商業(yè)模式的原因。
客戶群體方面,Graphcore中國(guó)會(huì)聚焦于大型互聯(lián)網(wǎng)公司。
這主要有兩方面的意義,第一,大型的互聯(lián)網(wǎng)公司對(duì)GPU產(chǎn)品用得最深最透最廣,對(duì)非GPU產(chǎn)品的技術(shù)參數(shù)、可用性、技支持服務(wù)、商業(yè)支持服務(wù)、產(chǎn)品穩(wěn)定性都要求很高。
“只有和嚴(yán)苛的客戶一起,才能真正把自己的產(chǎn)品給打磨出來。過程非常痛苦,但能從中學(xué)到很多。”盧濤體會(huì)頗深,“我們之前為一個(gè)國(guó)內(nèi)的大客戶部署了一個(gè)比較大的IPU集群,他們向我們提出了三百多個(gè)軟件特性需求,若不是客戶提出這些需求,很多需求我們想象不出來。客戶的要求越高、越苛刻,反而進(jìn)步更快。”
第二個(gè)方面的意義是從商業(yè)的角度。把中國(guó)作為單一的整體大市場(chǎng),中國(guó)互聯(lián)網(wǎng)行業(yè)占整個(gè)AI應(yīng)用市場(chǎng)的60%,并且這個(gè)行業(yè)里Top10-20多公司又占了80%以上的市場(chǎng)。
“從商業(yè)角度,如果你的產(chǎn)品表現(xiàn)令人滿意,最后的商業(yè)回報(bào)也會(huì)相對(duì)合理。”盧濤表示。
據(jù)雷峰網(wǎng)(公眾號(hào):雷峰網(wǎng))了解,Graphcore正在和國(guó)內(nèi)的金山云和騰訊云合作,與另一家國(guó)內(nèi)大型云廠商的合作細(xì)節(jié)在規(guī)劃中。
如何把握生成式AI帶來的機(jī)會(huì)?
如今,各大互聯(lián)網(wǎng)公司的大模型也帶來了對(duì)大算力AI芯片的強(qiáng)需求。只有快速實(shí)現(xiàn)對(duì)大模型的支持,才有可能抓住市場(chǎng)機(jī)遇。
目前,Graphcore已經(jīng)支持的大模型包括GPT-2 XL版本,GPT-J開源版本,Dolly 2.0(剛開源的100多億參數(shù)的模型),ChatGLM-6B(國(guó)內(nèi)比較火的開源模型)。
“對(duì)于大模型的公司,我們的一個(gè)優(yōu)勢(shì)是可以做到每個(gè)token 3.5毫秒,幾百個(gè)字一秒鐘就能出來了?!北R濤用了更形象的方式體現(xiàn)這一速度,“ChatGPT是逐字出現(xiàn)的,我們可以一屏屏地顯示。這是給做大模型的人一個(gè)重要的價(jià)值點(diǎn),能夠帶來不一樣的體驗(yàn)。
實(shí)現(xiàn)了對(duì)多個(gè)大模型的支持之后,也意味著Graphcore可以快速支持其它大模型。
盧濤表示,“從Dolly 2.0發(fā)布到我們支持這個(gè)模型,大概兩周左右的時(shí)間。支持大模型的關(guān)鍵點(diǎn)在于模型的大小,以及如何在多個(gè)IPU之間做模型拆分。需要底層的各種能力,例如Transformer相關(guān)的算子,模型并行的API,算子并行的API,Tensor并行的API,這些底層的技術(shù)我們已經(jīng)比較成熟?!?/p>
當(dāng)然,想要吸引熟悉了GPU的客戶使用Graphcore的IPU,最好能夠做到零代碼遷移,和CUDA兼容。
Graphcore在去年推出主打推理兼做訓(xùn)練的C600產(chǎn)品時(shí),同時(shí)發(fā)布的軟件工具包PopRT,這個(gè)工具包可以將GPU在TensorFlow訓(xùn)練出來的模型進(jìn)行自動(dòng)轉(zhuǎn)換,在不做CUDA兼容的情況下,比較無(wú)縫地把GPU的軟件在IPU上跑起來。
“上個(gè)月我們剛發(fā)了1.0版本,目前一些客戶反饋都還不錯(cuò),因?yàn)橐郧白鲆恍┠P瓦w移都需要花費(fèi)較長(zhǎng)的時(shí)間,現(xiàn)在有了工具之后,客戶自己的模型遷移還是比較快?!北R濤說,“當(dāng)然,我們的芯片IPU的優(yōu)勢(shì)是核非常多,存儲(chǔ)、帶寬非常大?!?/span>
對(duì)于當(dāng)下眾多的AI大算力初創(chuàng)芯片公司而言,英偉達(dá)并沒有留給競(jìng)爭(zhēng)者太多機(jī)會(huì),差異化競(jìng)爭(zhēng)能夠增加成功的可能。
這種差異化就包括面對(duì)不同的市場(chǎng)采用更適合的市場(chǎng)策略,所以Graphcore在英國(guó)和中國(guó)市場(chǎng)采用不同的策略,是差異化和靈活性的體現(xiàn),這種靈活性有助于Graphcore在中國(guó)取得成功。雷峰網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。