丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能 正文
發(fā)私信給朱可軒
發(fā)送

0

計(jì)算的未來(lái):英偉達(dá)王冠正搖搖欲墜

本文作者: 朱可軒   2025-04-30 18:03
導(dǎo)語(yǔ):需求整合、定制芯片和分布式訓(xùn)練將影響英偉達(dá)領(lǐng)先地位。

作者丨朱可軒

編輯丨陳彩嫻

大模型浪潮來(lái)襲后,2023 年英偉達(dá)數(shù)據(jù)中心的 GPU 出貨量總計(jì)約 376 萬(wàn)臺(tái),較之上一年的 264 萬(wàn)臺(tái)增長(zhǎng) 100 多萬(wàn)臺(tái),并成為歷史上規(guī)模增長(zhǎng)最快的硬件公司。據(jù)估計(jì),2025 年英偉達(dá)銷(xiāo)量將達(dá)到 650 萬(wàn)至 700 萬(wàn)塊 GPU。

目前情況來(lái)看,英偉達(dá)在 GPU 上的壟斷局面仍在持續(xù),然而,其長(zhǎng)期持久性(>6 年)的問(wèn)題仍在被持續(xù)熱議。

當(dāng)前,以谷歌、微軟、亞馬遜和 Meta 為代表的海外巨頭正在積極整合 AI 需求,力爭(zhēng)成為 NPU 的主要消費(fèi)者,與此同時(shí),他們也正在自研具有競(jìng)爭(zhēng)力且高度可靠的芯片。

此外,計(jì)算需求的規(guī)模之大也觸及了資本支出、電力供應(yīng)和基礎(chǔ)設(shè)施建設(shè)的極限,這正在推動(dòng)行業(yè)轉(zhuǎn)向分布式、垂直集成和協(xié)同優(yōu)化的系統(tǒng)(芯片、機(jī)架、網(wǎng)絡(luò)、冷卻、基礎(chǔ)設(shè)施軟件、電源),而英偉達(dá)對(duì)此準(zhǔn)備不足。

基于此,英偉達(dá)可能會(huì)失去有利地位,影響將波及 AI 堆棧的各個(gè)層面——從晶圓廠和半導(dǎo)體,到基礎(chǔ)設(shè)施、云端、模型開(kāi)發(fā)者和應(yīng)用層。

巨頭加速芯片競(jìng)爭(zhēng)

據(jù)英偉達(dá)方面介紹,2025 財(cái)年第四季度,其共交付了 110 億美元 Blackwell 芯片,Blackwell 主要賣(mài)給云巨頭,這部分收入占英偉達(dá)數(shù)據(jù)中心業(yè)務(wù)收入的半成左右。

不過(guò),業(yè)內(nèi)判斷,云巨頭的份額將縮小,此外,由于過(guò)度購(gòu)入并被迫虧損出售的小/短期GPU租賃廠商的利用率和投資回報(bào)率也均較低。

同時(shí),由于規(guī)?;那把啬P统杀靖?、性能和泛化能力更佳,尤其是在有效的 RAG 和廣泛可用的微調(diào)機(jī)制之下,大多數(shù)使用特定數(shù)據(jù)訓(xùn)練專(zhuān)有模型的公司價(jià)值點(diǎn)尚不明確,這些長(zhǎng)尾買(mǎi)家的需求并不穩(wěn)固。

此外,部分小型獨(dú)立云廠商如 Coreweave、Lambda、Crusoe、Runpod 等的未來(lái)不夠明晰,英偉達(dá)過(guò)往偉減少云巨頭帶來(lái)的沖擊給予他們資金和 GPU 支持,但其仍舊缺乏產(chǎn)品多樣性、基礎(chǔ)設(shè)施和人才能力。

相比之下,云巨頭的需求則增長(zhǎng)迅速,外部開(kāi)發(fā)者面臨著長(zhǎng)期資源短缺,交付周期長(zhǎng)達(dá)數(shù)月,而內(nèi)部需求也加劇了這一趨勢(shì),50-70% 的總計(jì)算量用于前沿訓(xùn)練和重大成果(例如 Copilot、Gemini 和 Meta AI)的推理。

盡管各大云服務(wù)提供商每年的資本支出都超過(guò) 200 億美元,但所有主要云平臺(tái)都已滿(mǎn)負(fù)荷運(yùn)轉(zhuǎn)。憑借規(guī)模和基礎(chǔ)設(shè)施經(jīng)驗(yàn),云巨頭最有能力攤銷(xiāo)折舊和停機(jī)成本,同時(shí)提供他們也提供了很強(qiáng)的靈活性、安全性和可靠性,由此帶來(lái)高 AI 服務(wù)利潤(rùn)率和客戶(hù)信任度。

當(dāng) GPU 支出數(shù)億時(shí),英偉達(dá)在主導(dǎo)驅(qū)動(dòng)并行 AI/ML 工作負(fù)載方面的平衡是可控的,如今,這種情況已不復(fù)存在。在一些超大規(guī)模數(shù)據(jù)中心,資本支出已超過(guò)毛利潤(rùn)的 25%,GPU 占基礎(chǔ)設(shè)施支出的一半,并占數(shù)據(jù)中心 TCO 約 80%。此外,與軟件不同,推理是邊際成本結(jié)構(gòu)的核心。

計(jì)算的未來(lái):英偉達(dá)王冠正搖搖欲墜

隨著未來(lái)訓(xùn)練(50 億美元以上)支出受限,定制化和資本效率對(duì)于最大限度地?cái)U(kuò)展計(jì)算能力、訓(xùn)練最佳模型和保持競(jìng)爭(zhēng)力至關(guān)重要。

雖然替代英偉達(dá)并不容易,但巨頭們均在尋找機(jī)會(huì)點(diǎn):

Meta 用 ASIC 取代了英偉達(dá)處理其一些最大的 DLRM 工作負(fù)載,谷歌也用同樣的方法處理了 YouTube 的關(guān)鍵視頻編碼工作負(fù)載。亞馬遜早在 2012 年就用 Nitro 取代了虛擬機(jī)管理程序,并用 Graviton 取代了大量英特爾 CPU。

云巨頭以及 Marvell、Broadcom、Astera、Arista 和 AIchip 等主要設(shè)計(jì)合作伙伴已經(jīng)投入了大量資金和工程人才,以削弱英偉達(dá)的壟斷。

計(jì)算的未來(lái):英偉達(dá)王冠正搖搖欲墜

以谷歌為例,自 2013 年以來(lái),他們一直在內(nèi)部開(kāi)發(fā) TPU,雖然開(kāi)發(fā)周期長(zhǎng)達(dá)數(shù)年,但在預(yù)算、人才和架構(gòu)都有限的情況下,TPU v1 從啟動(dòng)到部署僅用了 15 個(gè)月。

并且歷屆 TPU 論文中與對(duì)應(yīng)的 GPU 相比都有性能和能耗上的優(yōu)勢(shì)。比如,TPU 第 4 代和英偉達(dá)的 A100 是同等制程的,在這一情況下,單看半導(dǎo)體利用率,TPU 的技術(shù)和架構(gòu)及設(shè)計(jì)方案會(huì)比 GPU 有 3-5 倍的性能提升。

現(xiàn)階段,也有許多頭部廠商在采用 TPU,如 Anthropic 使用 TPU v5e 進(jìn)行推理,蘋(píng)果則曾選擇在 TPU V4 和 V5p 的混合體上訓(xùn)練其 SOTA 3B 參數(shù)本地模型。

發(fā)展至第六代,TPU Trillium 已經(jīng)將能效和 HBM 容量提高一倍,峰值性能提高三倍以上。而谷歌也在迭代其軟件堆棧,由 TensorFlow 過(guò)渡到 JAX 用于處理編譯和低級(jí)部署優(yōu)化,TPU 和 JAX 的組合幾乎完全取代了谷歌內(nèi)部用于 AI 工作負(fù)載的英偉達(dá) GPU。

本月初,谷歌又發(fā)布了第七代 TPU“Ironwood”,作為谷歌首款面向 AI 推理時(shí)代的 TPU,單芯片峰值算力可達(dá)4614 TFLOPs。據(jù)介紹,Ironwood 可擴(kuò)展至 9216 片芯片集群,性能是第六代 TPU Trillium 的 2 倍,并且能效較之于第一款 Cloud TPU 高出近 30 倍。

此外,HBM 帶寬也有所提升,單顆 Ironwood 芯片的內(nèi)存帶寬達(dá) 7.2Tbps,是 Trillium 的4.5倍,Ironwood 芯片間互聯(lián)(ICI)帶寬則為 1.2Tbps,是 Trillium 的1.5倍。

除谷歌外,亞馬遜也正在加速芯片開(kāi)發(fā),自 2015 年收購(gòu) Annapurna Labs 后,他們推出了第二代 Inferentia 和新的 Trainium 芯片,預(yù)計(jì)到 2026 年,支出將達(dá)到 25 億美金。第一代運(yùn)行 Alexa 的后端,而第二代則專(zhuān)注于 LLM 價(jià)格和性能的優(yōu)化。Anthropic 也已選擇了亞馬遜作為主要算力供應(yīng)商,并與其一同研發(fā)下一代芯片。

微軟則推出了自研 AI 芯片 Maia 100 芯片和相關(guān)的 Cobalt 100 CPU。在軟件方面,微軟推出了兼容 Pytorch 的編譯器 Maia SDK,依靠 Open AI 的 Triton 框架來(lái)取代 CUDA。另外,還推出了一種新的數(shù)據(jù)格式(MX v1.0)以使跨提供商的量化標(biāo)準(zhǔn)化,這將使自研和第三方芯片無(wú)縫互操作,為開(kāi)發(fā)者提供完整的可移植性。

Meta 也在布局 ASIC,早期,Meta 芯片主要為 Instagram 和 Reels 提供 DLRM,隨著第二代 MTIA 芯片發(fā)布和支持定制軟件堆棧,其已開(kāi)始在 Facebook 和 Instagram 的新聞推送推薦系統(tǒng)中使用推理芯片。

Meta 還在合成數(shù)據(jù)生成方面擴(kuò)大芯片使用,此前,Llama 3.1 就使用了這些芯片進(jìn)行監(jiān)督微調(diào)和數(shù)據(jù)提煉,以預(yù)訓(xùn)練較小的模型。上月,據(jù)外媒報(bào)道,Meta 已經(jīng)在小規(guī)模部署測(cè)試其首款用于 AI 訓(xùn)練的自研芯片。

當(dāng)前,AI 的工作負(fù)載偏向于訓(xùn)練,即使在微軟,訓(xùn)練也約占算力需求的六成,理論上來(lái)講,由于訓(xùn)練受限于內(nèi)存且對(duì)空間限制較為敏感,會(huì)限制 ASIC 的可行性,但隨著重心由訓(xùn)練轉(zhuǎn)向推理,英偉達(dá)的壓力也正在增大。

業(yè)內(nèi)分析認(rèn)為,在許多情況下(尤其是對(duì)于中型模型),上一代 A100 的性?xún)r(jià)比都高于 H100,而 AMD 也正在成為更具競(jìng)爭(zhēng)力的替代品,甚至從長(zhǎng)遠(yuǎn)來(lái)看,尤其是對(duì)于小模型而言,基于 CPU 的推理或?yàn)樽罴堰x擇。


分布式帶來(lái)的挑戰(zhàn)

當(dāng)然,也有人會(huì)反駁稱(chēng),就單芯片性能而言,英偉達(dá) B100 的性能相當(dāng)于 3 個(gè) Trillium TPU,但有觀點(diǎn)認(rèn)為,單芯片性能并不重要:云巨頭能夠垂直整合并利用其規(guī)模和專(zhuān)業(yè)打造總體上更經(jīng)濟(jì)、性能更高的分布式系統(tǒng),對(duì)于英偉達(dá)而言,這將會(huì)是難以競(jìng)爭(zhēng)或適應(yīng)的結(jié)構(gòu)性趨勢(shì)。

隨著登納德縮放定律(Dennard scaling)的失效和 SRAM 邏輯尺寸的縮小,晶體管小型化的回報(bào)下降,新節(jié)點(diǎn)成本卻一路飆升,硬件增益(密度、性能和成本)將越來(lái)越多地來(lái)自系統(tǒng)技術(shù)的協(xié)同優(yōu)化,以及互聯(lián)、芯片、冷卻、電源、機(jī)架和數(shù)據(jù)中心的智能設(shè)計(jì)。

這在很大程度上得益于先進(jìn)的封裝技術(shù)(例如芯片、增加的封裝內(nèi) HBM)和更大的基板。而更大的增益則來(lái)自于數(shù)據(jù)中心運(yùn)營(yíng)商、供應(yīng)商和系統(tǒng)集成商有意識(shí)地根據(jù)超大規(guī)模需求定制設(shè)計(jì)的努力。

以微軟的數(shù)據(jù)中心設(shè)計(jì)為例,他們規(guī)劃了自己的電信光纖網(wǎng)絡(luò),并推出新的 ColorZ 可插拔光收發(fā)器 + DSP,以支持長(zhǎng)距離(<80 公里)數(shù)據(jù)傳輸,通過(guò)連接數(shù)據(jù)中心有效提高峰值集群性能。計(jì)算的未來(lái):英偉達(dá)王冠正搖搖欲墜

為了支持海量數(shù)據(jù)流,微軟計(jì)劃開(kāi)發(fā)用于交換機(jī)和收發(fā)器的封裝內(nèi)、并最終實(shí)現(xiàn)芯片光學(xué)器件。目前搭載 Maia 芯片的機(jī)架擁有更高的垂直整合度,通過(guò)使用定制配電、高帶寬以太網(wǎng)協(xié)議和專(zhuān)用的機(jī)架內(nèi)“sidekicks”來(lái)實(shí)現(xiàn)閉環(huán)液體冷卻,且在提高芯片密度的同時(shí),降低了互連要求和成本。

重要的是,這些服務(wù)器集成到現(xiàn)有的微軟數(shù)據(jù)中心基礎(chǔ)設(shè)施后,可以在現(xiàn)有空間內(nèi)實(shí)現(xiàn)動(dòng)態(tài)功耗優(yōu)化、更輕松的管理以及更大的計(jì)算能力,這是擴(kuò)展訓(xùn)練運(yùn)行的必要條件。

谷歌所見(jiàn)略同,他們放棄了大型芯片,轉(zhuǎn)而采用體積更小、成本更低、且具有深度互連的 ASIC 集群。在機(jī)架層面,所有 TPU 都具有相同的配置,無(wú)需支持不同的環(huán)境。此外,它們?cè)跈C(jī)架中集成的服務(wù)器主板也更少,這提高了機(jī)架密度,并進(jìn)一步降低了硬件部署的復(fù)雜性。

并且谷歌使用 ICI 而非 NVLink,這讓他們能通過(guò)無(wú)源銅纜,以非常低的成本連接 64 個(gè) TPU 的切片。

與英偉達(dá)的不同之處還在于,谷歌在數(shù)據(jù)中心及其他方面均進(jìn)行了大量的定制化:TPU 設(shè)計(jì)為在 4096 個(gè)芯片的艙內(nèi)運(yùn)行,使用定制光學(xué)開(kāi)關(guān)(Apollo)代替普通的電子分組交換機(jī),與英偉達(dá)相比,大大降低了功耗和停機(jī)時(shí)間。

計(jì)算的未來(lái):英偉達(dá)王冠正搖搖欲墜

在整個(gè)數(shù)據(jù)中心中,TPU 采用環(huán)形網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)而非 CLOS 架構(gòu),改善了延遲和局部性,并結(jié)合專(zhuān)有的云網(wǎng)絡(luò)硬件和軟件 (Jupiter)實(shí)現(xiàn)跨數(shù)據(jù)中心組織大規(guī)模 TPU 集群,繼而實(shí)現(xiàn)比競(jìng)爭(zhēng)對(duì)手低近 30% 的性能/TCO(主要得益于芯片成本、停機(jī)時(shí)間和基礎(chǔ)設(shè)施支出的降低)。

更重要的是,結(jié)合更小的批量大小、數(shù)據(jù)驗(yàn)證技巧和高級(jí)分區(qū),這意味著谷歌可以在多個(gè)連接的數(shù)據(jù)中心訓(xùn)練像 Gemini Pro 1.5 這樣的前沿模型。這最大限度地降低了未來(lái)訓(xùn)練基礎(chǔ)設(shè)施的功耗和尺寸要求,并且在提高了硬件模塊化的同時(shí),延長(zhǎng)了舊芯片/設(shè)備的使用壽命。

基礎(chǔ)設(shè)施正在變得愈發(fā)分布式,以 Meta 為例,Llama 3 的訓(xùn)練就并非集中于單一數(shù)據(jù)中心。值得一提的是,由于需要去在包括 AWS、Oracle 等云上做訓(xùn)練,所以 Meta 也正在通過(guò)與 HammerSpace 合作將多云多數(shù)據(jù)中心的數(shù)據(jù)完全統(tǒng)一起來(lái)。計(jì)算的未來(lái):英偉達(dá)王冠正搖搖欲墜

微軟也正在為 OpenAI 連接遍布全國(guó)的集群。當(dāng)前,海外巨頭都在積極探索實(shí)現(xiàn)真正的異步分布式訓(xùn)練。

計(jì)算的未來(lái):英偉達(dá)王冠正搖搖欲墜

分布式基礎(chǔ)設(shè)施是繼續(xù)擴(kuò)展和計(jì)算新 OOM 的唯一途徑。目前,算力仍舊是前沿模型發(fā)展的最大制約因素,而多數(shù)據(jù)中心訓(xùn)練允許使用規(guī)模較小、互聯(lián)互通的數(shù)據(jù)中心,這不僅降本而且提高了吞吐量。

同時(shí),也加速了基礎(chǔ)設(shè)施的建設(shè):小型數(shù)據(jù)中心更容易進(jìn)行設(shè)計(jì)、獲得土地使用權(quán)/許可證、環(huán)境影響評(píng)估 (EIA) 審批、供應(yīng)商/總承包商 (GC) 以及建設(shè)輸電和電壓變壓器;互聯(lián)集群則可以幫助克服電網(wǎng)滿(mǎn)負(fù)荷運(yùn)行的電力限制,單個(gè)數(shù)據(jù)中心很快就會(huì)達(dá)到規(guī)模極限(例如,10GW 集群約占美國(guó)電力的 1%)。

計(jì)算的未來(lái):英偉達(dá)王冠正搖搖欲墜

互聯(lián)園區(qū)和跨區(qū)域聯(lián)網(wǎng)集群能夠擺脫單一端點(diǎn),當(dāng)前,海外還僅限于使用以太網(wǎng)(<40公里)區(qū)域內(nèi)的數(shù)據(jù)中心,但也正在計(jì)劃利用電信光纖,連接遠(yuǎn)至約 500 公里外的數(shù)據(jù)中心。

如微軟已開(kāi)始深入研究,并已與 Lumen 等光纖網(wǎng)絡(luò)提供商斥資超過(guò) 100 億美元。雖然還需要幾年時(shí)間才能部署,但將提供 1-5Pbit 的帶寬和 <1 秒的權(quán)重交換,足以實(shí)現(xiàn)多區(qū)域訓(xùn)練。

這些區(qū)域分布式訓(xùn)練系統(tǒng)將持續(xù)擴(kuò)展并成為常態(tài),從而實(shí)現(xiàn)更經(jīng)濟(jì)、更快速的基礎(chǔ)設(shè)施建設(shè),同時(shí)推動(dòng)單次運(yùn)行(x-xxGW)的峰值功率/計(jì)算能力。

不過(guò),雖然分布式系統(tǒng)為非傳統(tǒng)但資金雄厚的參與者創(chuàng)造了一些機(jī)會(huì),但基礎(chǔ)設(shè)施專(zhuān)業(yè)知識(shí)至關(guān)重要,巨頭必須不斷擴(kuò)展以訓(xùn)練出更優(yōu)秀的模型。長(zhǎng)期來(lái)看,關(guān)鍵區(qū)別在于訓(xùn)練將在 x00MW-xGW 數(shù)據(jù)中心的“小型”聯(lián)網(wǎng)園區(qū)中進(jìn)行,而不是在 xxGW 級(jí)的單體數(shù)據(jù)中心中進(jìn)行。

基于前述趨勢(shì),業(yè)內(nèi)分析認(rèn)為,英偉達(dá)將很難在性能或成本上競(jìng)爭(zhēng),其既無(wú)法與云深度集成,也無(wú)法定制硬件,除非他們發(fā)展出規(guī)模較小的客戶(hù),英偉達(dá)本身并不適合服務(wù)于跨集群或百億億次級(jí)的情況。

計(jì)算的未來(lái):英偉達(dá)王冠正搖搖欲墜

舉例來(lái)看,英偉達(dá)的 Infiniband 網(wǎng)絡(luò)基礎(chǔ)設(shè)施并非旨在支持 10 萬(wàn)以上的 GPU 集群,根據(jù)設(shè)計(jì),每個(gè) GPU 僅連接到單個(gè) NIC(Network Interface Card,網(wǎng)絡(luò)接口卡),并且每個(gè)數(shù)據(jù)包都必須以相同的順序傳輸。

由于模型規(guī)模龐大且權(quán)重分布不均,單個(gè) NIC、GPU 或光模塊故障就可能導(dǎo)致整臺(tái)服務(wù)器癱瘓,迫使數(shù)據(jù)重新傳輸,而隨著新機(jī)架的出現(xiàn),節(jié)點(diǎn)規(guī)模也隨之增大,這種情況會(huì)更加嚴(yán)重,即使頻繁設(shè)置檢查點(diǎn),也會(huì)將 MFU 拖累數(shù)個(gè)百分點(diǎn)。

此外,盡管英偉達(dá)正在推動(dòng)向 800 Gbps 網(wǎng)絡(luò)的過(guò)渡,但他們面對(duì)數(shù)據(jù)通信領(lǐng)域由超大規(guī)模引領(lǐng)的大規(guī)模轉(zhuǎn)型表現(xiàn)出措手不及,未來(lái)會(huì)越來(lái)越多地使用可插拔 ZR 光模塊來(lái)支持連接數(shù)據(jù)中心所需的超高帶寬光纖連接,還將獲得新的 DSP 和支持電信硬件(放大器、多路復(fù)用器、轉(zhuǎn)發(fā)器等)。

這會(huì)破壞英偉達(dá)的網(wǎng)絡(luò)堆棧,并且使 Coherent、Lumentum、Inphi、Cisco 和 Nokia 等供應(yīng)商受益。

值得一提的是,英偉達(dá)還面臨著一個(gè)最緊迫的問(wèn)題——容錯(cuò),在訓(xùn)練過(guò)程中處理多個(gè)故障點(diǎn)時(shí),容錯(cuò)能力是確保可靠性和高利用率的關(guān)鍵。規(guī)模較小的客戶(hù)依賴(lài)于開(kāi)源框架,但對(duì)于規(guī)模非常大的集群,英偉達(dá)的網(wǎng)絡(luò)設(shè)計(jì)和硬件選擇并未提供內(nèi)置保護(hù)。

如今,許多巨頭依賴(lài)于內(nèi)部解決方案:谷歌的 Pathways 比其他解決方案在邊緣情況和故障類(lèi)型方面表現(xiàn)更優(yōu),同時(shí)能夠靈活處理同步和異步數(shù)據(jù)流。Pathways 還擅長(zhǎng)檢測(cè)和修復(fù)幾乎無(wú)法察覺(jué)的、繞過(guò) ECC 的 GPU 內(nèi)存問(wèn)題,而英偉達(dá)的診斷工具 (DCGM) 可靠性要低得多。

英偉達(dá)也難以提供具有競(jìng)爭(zhēng)力的分區(qū)和集群管理軟件,其 BaseCommand 系統(tǒng)(基于 Kubernetes 構(gòu)建)旨在實(shí)現(xiàn)跨平臺(tái),并兼容異構(gòu)系統(tǒng)。

然而,其他廠商擁有更完善的專(zhuān)有集成解決方案,如谷歌的 Borg和微軟的 Singularity 能夠更好地處理規(guī)?;奶摂M機(jī)/容器管理、透明遷移以及 GPU 工作負(fù)載的調(diào)度/管理。谷歌甚至還通過(guò) MegaScaler 在單個(gè)園區(qū)內(nèi)外的 TPU Pod 之間同步劃分工作負(fù)載。

較之英偉達(dá),云巨頭在半導(dǎo)體、基礎(chǔ)設(shè)施和模型層面的垂直整合,能夠提升其系統(tǒng)級(jí)理解、可觀察性、協(xié)同優(yōu)化和故障分析能力。

當(dāng)前英偉達(dá)也已在通過(guò) Blackwell 和 GB200 解決結(jié)構(gòu)性問(wèn)題。在硬件層面,安裝了機(jī)架寬的銅纜連接背板,并采用液冷技術(shù)來(lái)提高密度、能效和總體擁有成本 (TCO),并推出了基于以太網(wǎng)的數(shù)據(jù)中心級(jí)網(wǎng)絡(luò)解決方案 Spectrum-X。

在軟件方面,英偉達(dá)正在積極更新 DCGM 軟件,并推出專(zhuān)用的可靠性、可用性和可維護(hù)性 (RAS) 引擎,旨在通過(guò)傳感器級(jí)芯片數(shù)據(jù)預(yù)先向運(yùn)營(yíng)商發(fā)出故障警報(bào),從而幫助緩解持續(xù)存在的 NIC/Infiniband 故障。

然而,綜合來(lái)看,這還不夠。

如前文所述,幾乎所有關(guān)鍵基礎(chǔ)設(shè)施軟件的內(nèi)部都存在更好的版本,超大規(guī)模數(shù)據(jù)中心也早已實(shí)現(xiàn)了規(guī)?;痛怪闭?。

以冷卻為例,早在英偉達(dá)強(qiáng)制使用液冷前,谷歌于 2018 年就通過(guò) TPU v3 部署強(qiáng)制使用液冷,谷歌的 TPU v3 部署每千瓦時(shí)用水量比微軟的英偉達(dá)數(shù)據(jù)中心少 2 倍,PUE(電源使用效率)為 1.1,而微軟的 PUE 則>1.4。這意味著英偉達(dá)在每個(gè)超大規(guī)模數(shù)據(jù)中心損失了 30% 的有效電力和 50% 的占地面積。

英偉達(dá)意識(shí)到了這一點(diǎn),并通過(guò)布局 DGX Cloud、NGC 等努力提升價(jià)值鏈,也前瞻性收購(gòu)了 Mellanox,但未來(lái)正朝著大型園區(qū)和云的方向發(fā)展,而英偉達(dá)卻主要在數(shù)據(jù)中心層面進(jìn)行優(yōu)化,其正面臨著前所未有的長(zhǎng)期挑戰(zhàn)。雷峰網(wǎng)(公眾號(hào):雷峰網(wǎng))雷峰網(wǎng)

參考鏈接:

https://mohitdagarwal.substack.com/p/from-dominance-to-dilemma-nvidia

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知

計(jì)算的未來(lái):英偉達(dá)王冠正搖搖欲墜

分享:
相關(guān)文章
當(dāng)月熱門(mén)文章
最新文章
請(qǐng)?zhí)顚?xiě)申請(qǐng)人資料
姓名
電話(huà)
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶(hù)安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)