丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
芯片 正文
發(fā)私信給量衡
發(fā)送

0

琳瑯滿目的 XPU,到底是什么?

本文作者: 量衡 2021-11-16 14:06
導語:“XPU”是什么?

在 AI 崛起的這幾年來,大家經(jīng)常會看到“TPU、IPU、NPU”之類的名字,這些“XPU”有什么分別?是真的有那么多不同的架構?還是廠商的概念營銷?

為了解答這個問題,外媒SemiEngineering搜集了大量業(yè)內(nèi)人的看法并匯總成文,我們進行精簡和編譯,原文鏈接:https://semiengineering.com/what-is-an-xpu

琳瑯滿目的 XPU,到底是什么?

圖源aita

從 CPU 及其發(fā)展方式的角度來看,這些“XPU”中的大部分都不是真正的處理器。機器學習加速器是一類處理器,但它們用來加速的處理部分卻多種多樣。它們更像是 GPU,是用于執(zhí)行特殊工作負載的加速器,而且它們本身就有很多類型。

處理器的本質(zhì)可以歸結(jié)為三件事,最后還是回到指令集架構 (ISA):首先定義要做的事,然后是 I/O 和內(nèi)存(支持 ISA 和它試圖完成的任務)。而未來我們將看到比過去兩、三年更多的創(chuàng)新和變化。

許多新架構都不是單一處理器,它們是不同類型的處理器或可編程引擎的組合,它們存在于同一個 SoC 或同一個系統(tǒng)中,將軟件任務分派到不同的硬件或可靈活變動的可編程引擎上。所有這些處理器可能共享一個公共 API,但執(zhí)行域有所不同。在這個層面,確實是有各種類型的不同架構。

但現(xiàn)實情況是,大部分“XPU”的命名都是營銷,而且這些命名和縮寫,同時指代兩種東西:一種是用于解釋處理器的架構,例如 SIMD(單指令多數(shù)據(jù)),而另一種定義了它正在尋址的應用程序段。所以它既可以用來定義處理器架構,也可以用作如“張量處理單元(TPU)”這樣的品牌名,畢竟廠商們不是在為單個處理器命名,而是在為他們的架構命名。

 

歷史

在40 年前,命名的問題要簡單很多。首先是中央處理器(CPU),雖然它有很多演變版本,但它們基本上都是馮諾依曼架構,是圖靈完備的處理器。每個都有不同的指令集來提升處理效率,當年還針對復雜指令集 (CISC) 與精簡指令集 (RISC) 優(yōu)缺點,有過非常廣泛的討論。

后來的 RISC-V 的出現(xiàn)給 ISA 帶來了很多關注。 ISA 定義了處理器針對已定義任務的優(yōu)化程度,人們可以查看 ISA 并開始計算周期。例如,如果一個 ISA 具有本機指令并以 1GHz 運行,那我們就能將它與另一個 ISA 處理器進行比較,后者要完成相同的功能可能需要兩條指令,但頻率是 1.5GHz,孰強孰弱就很明顯了。

CPU 有多種封裝方式,有時將 I/O 或內(nèi)存放在同一個封裝中,而后兩者被稱為微控制器單元 (MCU)。在調(diào)制解調(diào)器大行其道的時候,數(shù)字信號處理器(DSP) 出現(xiàn)了,它們的不同之處在于它們使用了哈佛架構,將指令總線與數(shù)據(jù)總線分開了,其中一些還用了 SIMD 架構來提升數(shù)據(jù)處理效率。

指令和數(shù)據(jù)的分離是為了提高吞吐率(雖然它確實限制了自編程之類的邊緣編程)。通常,這里的邊界條件不是計算,而是 I/O 或內(nèi)存。業(yè)內(nèi)的重點已經(jīng)從提升計算能力,轉(zhuǎn)變成確保有足夠的數(shù)據(jù)來讓計算進行下去并保持性能。

當單個處理器的性能無法再繼續(xù)提升,那就把多個處理器連在一起。通常它們還會使用共享內(nèi)存,讓每個處理器和整個處理器集群都保持圖靈完備。程序的任何部分在哪個核心上執(zhí)行都無關緊要,反正結(jié)果是一樣的。

而下一個重大發(fā)展,是圖形處理單元(GPU)的出現(xiàn)。GPU打破了常規(guī),因為每個處理單元或管線都有自己的內(nèi)存,無法在處理單元外部尋址。因為內(nèi)存大小有限,只能執(zhí)行那些能放入內(nèi)存的任務,所以對任務本身有限制。

對于某些類型任務,GPU 是非常強大,但它們的管線非常長,導致了延遲和不確定性。這些管線讓 GPU 單元不斷處理數(shù)據(jù),但如果要刷新管線,效率就會大打折扣。

GPU 和后來的通用 GPU (GPGPU) 定義了一種編程范式和軟件棧,使它們比以前的加速器更容易上手。多年來,某些工作一直是專業(yè)化的,有用于運行連續(xù)程序的 CPU,有專注于圖像顯示,并將我們帶入高度并行世界的圖形處理器,后者使用很多小的處理單元來執(zhí)行任務(包括現(xiàn)在的機器學習任務)。

那有什么架構規(guī)則可以用來解釋所有的新架構嗎?有的,或許片上網(wǎng)絡 (NoC)是個合適的定義 。過去,處理器陣列通常用內(nèi)存或固定網(wǎng)絡拓撲連接(網(wǎng)狀或環(huán)形),而 NoC 讓分布式異構處理器能以更靈活的方式進行通信。而將來,它們還可以在不使用內(nèi)存的情況下進行通信。

現(xiàn)在的 NoC 是針對數(shù)據(jù)的,而未來的 NoC 也能發(fā)命令和通知等數(shù)據(jù),可以擴展到那些加速器間不只是交互數(shù)據(jù)的領域。加速器陣列或集群的通信需求可能與 CPU 或標準 SoC 的通信需求不同,但 NoC 并不會將設計者限制在一個子集里,他們能通過滿足不同加速器的特殊通信需求來優(yōu)化和提高性能。

 

執(zhí)行架構

另一種區(qū)分處理器的方式,是看它們對特定運行環(huán)境進行的優(yōu)化。例如,云端和微型物聯(lián)網(wǎng)設備上可能可以跑相同的軟件,但在不同環(huán)境中使用的架構是完全不同的,它們對性能、功耗、成本、極端條件下的運行能力等要求都是不同的。

這可能是因為對低延遲的需求,或者是因為功耗的原因,一些原來針對云計算的軟件,現(xiàn)在被逐漸放到設備端側(cè)運行。雖然是不同的硬件架構,但大家自然希望擁有完全相同的軟件棧,以便軟件能夠在兩種場合跑起來。云端需要提供靈活性,因為它會跑不同類型的應用程序,而且用戶眾多。這要求服務器硬件又要有針對應用的優(yōu)化,又要能提供不同的規(guī)模。

而機器學習任務也有自己的要求,在使用神經(jīng)網(wǎng)絡和機器學習構建系統(tǒng)時,你需要使用軟件框架和通用軟件棧,讓網(wǎng)絡編程并映射到硬件,然后你可以從 PPA 的角度讓軟件適配不同的硬件。這推動了“讓不同類型的處理和處理器適應各種硬件”的需求。

這些需求是由應用定義的。舉個例子,就像一家公司設計了一個用于圖形操作的處理器,他們優(yōu)化和加速圖形跟蹤,并執(zhí)行諸如圖形重新排之類的操作,還有其他像矩陣乘法之類的加速機器學習的蠻力部分。

而內(nèi)存訪問對于每個架構來說都是一個特殊的問題,因為當你構建加速器時,最重要的目標是讓它盡量長時間保持滿載,你必須將盡可能多的數(shù)據(jù)傳送到 ALU,讓它盡可能多地吞吐數(shù)據(jù)。

它們有許多共同之處,它們都有本地內(nèi)存,有片上網(wǎng)絡來進行通信,每個執(zhí)行算法的處理器都在處理一小塊數(shù)據(jù),這些操作都由運行在 CPU 上的操作系統(tǒng)調(diào)度。

對于硬件設計人員,棘手之處在于任務預測。盡管在某些層面上會有類似的操作類型,但人們正在研究不同層面上差異。為了處理神經(jīng)網(wǎng)絡,需要幾種類型的處理能力。這意味著你需要對神經(jīng)網(wǎng)絡的一部分進行某種方式的處理,然后在另一層又可能需要另一種處理操作,而且數(shù)據(jù)移動和數(shù)據(jù)量也是逐層變化的。

你需要為處理管線構建一整套不同的加速器,而理解和分析算法并定義優(yōu)化過程,是涉及到完整體系結(jié)構的任務。就像對于基因組測序,你可能需要進行某些處理,但你不能用單一類型的加速器來加速所有東西。CPU負責管理執(zhí)行流水線,對其進行設置、執(zhí)行 DMA、進行決策。

當中可能涉及到分區(qū)執(zhí)行的問題。沒有任何一種處理器可以針對每種任務進行優(yōu)化——FPGA、CPU、GPU、DSP都做不到。芯片設計商可以創(chuàng)建一系列包含所有這些處理器的芯片,但客戶應用端的難點在于,他們要自己確定系統(tǒng)的各個部分要在哪些處理器上運行,是在 CPU 上?在 FPGA 上?還是在 GPU 上?

但無論如何,里面總是需要有 CPU 的,CPU 要負責執(zhí)行程序的不規(guī)則部分,CPU 的通用性有自己的優(yōu)勢。但反過來,如果是專門的數(shù)據(jù)結(jié)構或數(shù)學運算,CPU就不行了。畢竟 CPU 是通用處理器,它沒有針對任何東西進行優(yōu)化,沒有特別擅長的項目。

 

抽象層的改變

以前,硬件/軟件邊界由 ISA 定義,并且該內(nèi)存是連續(xù)可尋址的。而涉及到多處理器時,一般內(nèi)存定義也是也是一致的。但是可以想象,在數(shù)據(jù)流引擎中,一致性并不那么重要,因為數(shù)據(jù)會從一個加速器直接傳到另一個加速器。

如果你對數(shù)據(jù)集進行分區(qū),那一致性會成為障礙,你需要對照和更新數(shù)據(jù),并會占用額外的運算周期。所以我們需要,也必須考慮不同的內(nèi)存結(jié)構,畢竟可用的內(nèi)存就那么點?;蛟S可以訪問相鄰的內(nèi)存,但也會很快耗盡,然后無法及時訪問。所以必須在設計中加以理解,而且是要在理解架構的情況下去設計它。

我們還需要更高級別的抽象層。有些框架可以將已知網(wǎng)絡映射或編譯到目標硬件上,例如在一組低級內(nèi)核或 API,它們將在軟件堆棧中使用,并最終由神經(jīng)網(wǎng)絡的映射器使用。在底層,你可能在用不同類型的硬件,這由你想要實現(xiàn)的目標來決定。反正就是用不同的硬件,不同的 PPA ,實現(xiàn)了相同的功能。

而這會給編譯器帶來很大的壓力。主要的問題是你未來要如何對加速器進行編程?你是否搞了個像初代 GPU 那樣串在一起的硬連線引擎?或者你是否構建了具有自己指令集的小型可編程引擎?現(xiàn)在你必須單獨對這些東西進行編程,并將這些引擎中的每一個都與數(shù)據(jù)流連接起來,然后執(zhí)行任務。

一個處理器擁有整個指令集的某個子集,另一個處理器擁有一個不同的子集,它們都將共享控制流的某些重疊部分,編譯器得了解它的庫并進行映射。


結(jié)論

其實處理器的架構并沒有改變,它們?nèi)匀蛔袷剡^去 40 年來一直遵循的規(guī)則。變的是芯片的構造方式,它們現(xiàn)在包含大量異構處理器,這些芯片根據(jù)各自的任務,對內(nèi)存和通信進行優(yōu)化。每個芯片都對處理器性能、優(yōu)化目標、所需的數(shù)據(jù)吞吐量以及數(shù)據(jù)流做出了不同的選擇。

每個硬件供應商都希望將自己的芯片與其他芯片區(qū)分開來,品牌推廣比談論內(nèi)部技術細節(jié)要容易得多。廠商給自己的芯片起了“XPU”的名字,并將它與特定類型的應用聯(lián)系起來,但“XPU”并不是關于某個特定硬件架構的名字。

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

分享:
相關文章
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說