丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給朱可軒
發(fā)送

0

國產(chǎn) AI Infra 變革進行時:新勢力正在崛起

本文作者: 朱可軒   2025-03-10 10:02
導(dǎo)語:DeepSeek 方法論重構(gòu) AI 基礎(chǔ)設(shè)施,驛心科技實現(xiàn) AI Infra 軟硬整合架構(gòu)突破。

作者丨朱可軒

編輯丨陳彩嫻

近日,“源神”Deepseek 密集開源了一系列代碼庫,包括FlashMLA、DeepEP、DeepGEMM、DualPipe 等項目及 3FS 系統(tǒng),幾乎實現(xiàn)了對 AI Infra 底層計算、網(wǎng)絡(luò)、存儲的全覆蓋式優(yōu)化,這對于 AI Infra 而言也能提供許多有價值的參考。

當(dāng)前,國內(nèi) AI Infra 領(lǐng)域公司圍繞 DeepSeek 帶來的一系列啟發(fā),也正在思考下一步大模型訓(xùn)推優(yōu)化更好的解決方案,驛心科技便是其中之一。

上周 DeepSeek 開源 3FS 等一系列組件,充分說明了從存儲到網(wǎng)絡(luò)往 GPU 里面?zhèn)鬏敂?shù)據(jù)的能力是 AI 訓(xùn)練和推理中最重要的問題,這也正是驛心科技想解決的核心技術(shù)問題。

國產(chǎn) AI Infra 變革進行時:新勢力正在崛起

據(jù)了解,驛心科技于 2023 年 9 月由前曠視科技創(chuàng)始合伙人吳文昊成立,致力于從基礎(chǔ)架構(gòu)做研發(fā),基于 GPU 服務(wù)器本地存儲與通用以太網(wǎng)絡(luò),提供與傳統(tǒng)智算基于 RDMA 的存儲網(wǎng)絡(luò)、單獨部署商業(yè)訓(xùn)練存儲同等的能力,大幅降低模型落地成本與加速部署,方便后續(xù)在 DeepSeek 等通用模型層面做優(yōu)化,加速模型的運行效率。

值得注意的是,驛心所用的硬件完全是使用標(biāo)準(zhǔn)企業(yè)服務(wù)器以及標(biāo)準(zhǔn)網(wǎng)絡(luò),不需要任何的定制硬件、網(wǎng)絡(luò)和軟件。相比之下,過去 AI Infra 部署使用的傳統(tǒng)高性能文件存儲往往需要使用定制硬件服務(wù)器,特定網(wǎng)絡(luò)交換,以及定制的操作系統(tǒng)內(nèi)核和客戶端。

換言之,驛心所提出的 AI Infra 整體解決方案效率更高、性價比更高。


重構(gòu)之下的新機會

在常規(guī)視野中,AI Infra 包含供應(yīng)鏈和云兩層,但經(jīng)過兩年的 AGI 技術(shù)躍進,大模型逐漸成為基礎(chǔ)設(shè)施的趨勢已然明朗,許多觀點認為模型甚至可能成為新的“OS”。

而在此之中,架構(gòu)重構(gòu)和供應(yīng)鏈重構(gòu)為 AI Infra 帶來了創(chuàng)業(yè)空間。

架構(gòu)方面,HPC、云和 AI 所需要的 Infra 均存在差異。首先,云的計算、網(wǎng)絡(luò)和存儲并非專門為 AI 或者 HPC 設(shè)計優(yōu)化的,當(dāng)中的不匹配會帶來價值差:云圍繞網(wǎng)絡(luò)而生,通過 CPU、網(wǎng)絡(luò)、存儲資源的超賣解決利潤問題,不能超賣則沒有利潤來源。

隨著 AI Infra 的大規(guī)模興起,這個價值點已經(jīng)被重構(gòu)了,因為 AI Infra 以 GPU 為中心,基于此,云大廠很難提供最為優(yōu)化的底層 Infra,因為其還需要照顧到自身云原生應(yīng)用的 Infra 需求。

此外,AI 雖然從 HPC 孵化而來,二者也都追求千卡萬卡的規(guī)模,但從計算范式上看存在差距:本質(zhì)在于 HPC 聚焦于做仿真、模擬世界的運行,追求確定性,需要高精度計算,而 AI 追求概率,需要的是 next token 夠準(zhǔn)確。

除技術(shù)架構(gòu)外,國內(nèi)芯片供應(yīng)鏈重構(gòu)也正在催生巨大的 AI Infra 機會,DeepSeek 無疑進一步推動了重構(gòu)的發(fā)生。

在重構(gòu)發(fā)生的同時,算力設(shè)備、能耗、機房空間和資金四大瓶頸也限制了 AI 算力的發(fā)展。對此,驛心依托 GPU 服務(wù)器本地存儲與通用以太網(wǎng)絡(luò),構(gòu)建了一套獨具優(yōu)勢的一體化解決方案:

國產(chǎn) AI Infra 變革進行時:新勢力正在崛起

Tier 0 ← Tier 1

首先是 AI 集群一體化方案技術(shù)創(chuàng)新:驛心的 Tier-0 存儲方案能有效利用 GPU 服務(wù)器內(nèi)部存儲,在搭建AI基礎(chǔ)集群設(shè)施時,不需要再構(gòu)建專屬的存儲集群以及存儲網(wǎng)絡(luò),大幅削減了模型落地成本,顯著加速了部署進程。

這不僅為企業(yè)和科研機構(gòu)減輕了經(jīng)濟負擔(dān),更讓先進的人工智能模型能夠以更快的速度從理論走向?qū)嵺`,賦能千行百業(yè)。

其次在 AI 存儲層面,驛心科技能支持多云多數(shù)據(jù)中心的全局文件系統(tǒng)(Global Namespace),讓大模型的上載與更新完全無縫進行,提供統(tǒng)一的存儲管理,讓 AI 數(shù)據(jù)訪問更高效。

不僅能夠支持傳統(tǒng)的文件和對象存儲,也能利用好 DeepSeek 剛剛開源的 3FS 并行文件系統(tǒng);具備智能的數(shù)據(jù)分層和緩存機制,可快速響應(yīng) AI 工作負載對數(shù)據(jù)的需求,提升訓(xùn)練和推理速度;有強大的數(shù)據(jù)安全與保護功能,保障 AI 數(shù)據(jù)的完整性和機密性;還能靈活擴展,輕松應(yīng)對 AI 項目中不斷增長的數(shù)據(jù)量需求。

在模型優(yōu)化層面,驛心科技立足前沿,積極布局和擁抱開源生態(tài)。其解決方案為后續(xù)在 DeepSeek 等通用模型的優(yōu)化工作提供了堅實基礎(chǔ),能夠深度挖掘模型潛力,全方位加速模型運行效率,讓人工智能真正做到快而準(zhǔn),助力客戶在瞬息萬變的市場競爭中搶占先機,引領(lǐng)行業(yè)發(fā)展新潮流。

驛心的解決方案無疑精準(zhǔn)解決了目前 AI 訓(xùn)練與推理的主要痛點,這些痛點的洞察背后,實際上也與吳文昊橫跨 HPC、云計算和 AI 的經(jīng)歷有一定關(guān)系:

國產(chǎn) AI Infra 變革進行時:新勢力正在崛起

從 1999 年清華本科畢業(yè)到美國,直到 2008 年去微軟,這期間吳文昊一直在做 HPC,博士期間他主要做矩陣計算高性能實現(xiàn)與并行計算 MPI 協(xié)議研發(fā),2008 年到微軟之后負責(zé)微軟 HPC 及微軟云 Azure 產(chǎn)品管理,2011 年,吳文昊作為微軟云 Azure 存儲團隊的 PM 負責(zé)了 Mellanox 進微軟云 Azure 的項目。

隨后的 2013 年,吳文昊離開微軟,加入企業(yè)閃存市場“開拓者”Fusion-io,并于 2015 年回國加入曠視,此后一直聚集于 AI,一直到 2020 年正式離開曠視。

當(dāng)前的驛心科技,已重點布局三個領(lǐng)域:

一是云和大模型,這部分客戶的痛點主要在于自研、交付及客戶服務(wù)成本高,繼而需要專業(yè)存儲、獨立網(wǎng)絡(luò)互聯(lián)互通、多云數(shù)據(jù)同步與遷移,以及輕量級客戶服務(wù)界面。

據(jù)吳文昊介紹,這方面驛心目前已經(jīng)在國內(nèi)頭部互聯(lián)網(wǎng)大廠完成了 技術(shù)驗證,并且后者在全球只評測了兩家,除驛心外還有一家美國存儲公司。

二是AI研發(fā)類客戶,涵蓋汽車、自動駕駛,乃至機器人等垂直行業(yè),其對 AI 和 GPU 存儲能力需求不斷攀升。這類企業(yè)利用 AI 技術(shù)最快完成行業(yè)內(nèi) AI 閉環(huán),如自動駕駛,通常通過物理產(chǎn)品與 VLA 模型服務(wù)(視覺 + 語言 + 行動)實現(xiàn) AI 閉環(huán)。

對此,就需要驛心提供專業(yè) AI Infra 解決方案以及 VLA 模型與數(shù)據(jù)能力,來幫助他們構(gòu)建垂直行業(yè)解決方案。目前,驛心也正加深同比亞迪電子的合作,繼而提供針對AI研發(fā)類客戶的一體機聯(lián)合解決方案。

值得一提的是,吳文昊也將這部分客戶描述為“AI 工廠”。在他看來,“從第一性原理出發(fā),DeepSeek 的出現(xiàn)正說明了中國是真正的‘AI 工廠’。先不論 GPU 在哪生產(chǎn),如果要打造 AI 工廠,最終供應(yīng)鏈仍將來自中國?!?/p>

第三類客戶為傳統(tǒng)客戶,包含半導(dǎo)體、制造、金融、能源等行業(yè),它們需要安全、可擴展的存儲解決方案。與 AI 研發(fā)類企業(yè)相比,這類企業(yè) AI 需求增長較快,也在向 AI 領(lǐng)域發(fā)力,逐步迭代,完成商業(yè)閉環(huán)后有望成為 AI 研發(fā)類企業(yè)。

就此,驛心也通過與 OEM 廠商的合作,提供了針對細分行業(yè)及整合核心行業(yè)應(yīng)用的存算一體機方案。


寫在最后

開源和工程化的實現(xiàn)讓 DeepSeek 在 AGI 之路上往前邁進了一步,同時,也揭示了中美兩國在 AGI 軟硬一體上的兩種不同思路:

美國的 AGI 在 Infra 上追求平臺化發(fā)展,而中國的 AGI 如 DeepSeek 更強調(diào)通過算法驅(qū)動的軟硬一體優(yōu)化來降低底層Infra 成本與提高效率。

驛心也是如此——在海外市場聯(lián)合 HammerSpace 提供的存儲方案更為水平化,而驛心則針對國內(nèi)市場給出了更加垂直的一體化方案。吳文昊認為,正如 DeepSeek 從模型往下軟硬一體整體優(yōu)化的方法論所展示的巨大市場影響力,整個AI Infra的軟硬一體優(yōu)化與整合同樣會存在諸多市場空間。

對此,驛心和 DeepSeek 的做法有什么異同點呢?

驛心創(chuàng)始人吳文昊告訴 AI 科技評論,“Necessity is the mother of invention。對于 LLM 這樣的超級單一應(yīng)用,對數(shù)據(jù)使用的 pattern 趨于簡化統(tǒng)一,更易于針對這些 pattern 做優(yōu)化?!?/p>

他認為,“從存儲到網(wǎng)絡(luò)往 GPU 里面?zhèn)鬏敂?shù)據(jù)的能力在 LLM 時代才是關(guān)鍵。因此,我們的 AI Infra 能力聚焦在存儲與模型層面?!?/p>

再次,在存儲層面,針對大模型訓(xùn)練和推理,通過 Tier-0 方案直接整合 GPU 服務(wù)器內(nèi)部的存儲空間。如無必要,勿增實體,這樣直接整合不僅解決成本,機房空間,能耗等核心瓶頸問題,而且極大提升存儲性能與數(shù)據(jù)帶寬。

在模型優(yōu)化層面,針對類似于 DeepSeek 這樣的主流模型,驛心結(jié)合算力、網(wǎng)絡(luò)、分布式 KV Cache 等能力,提高LLM集群的吞吐,同時通過可靠的 Tier-0/Tier-1 存儲方案保證模型與數(shù)據(jù)的可靠性,同時支持模型的后訓(xùn)練與推理加速。

當(dāng)前,驛心最新一輪融資即將 Close。之后在多模態(tài)和端側(cè)方面,驛心將尋求更多突破:“未來 AI Infra 特別是 AI 存儲將會迎來巨大增長,因為多模態(tài)的數(shù)據(jù)量較之語言模型要大幾十上百倍?!眳俏年桓嬖V AI 科技評論。

另外,“端側(cè) AI 也需要經(jīng)過兩三個周期才能達到如今語言模型的水平,所以未來在端側(cè),數(shù)據(jù)生成、合成、存儲使用也存在許多值得關(guān)注的問題,這當(dāng)中也蘊藏著新的機遇。”

總得來講,中國 AI 行業(yè)整體邁向 AGI,不僅需要算法人員的創(chuàng)新,也需要更多像驛心一樣有實力的 Infra 創(chuàng)業(yè)團隊加入。如此,整個行業(yè)才能攜手定義下一代 AI Infra 的發(fā)展,這才是核心關(guān)鍵點所在。雷峰網(wǎng)(公眾號:雷峰網(wǎng))雷峰網(wǎng)

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

國產(chǎn) AI Infra 變革進行時:新勢力正在崛起

分享:
相關(guān)文章
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說