丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能 正文
發(fā)私信給陳彩嫻
發(fā)送

0

獨家 | 對話陳云霽:深度學習處理器之外,用人工智能指導芯片設計也漸成趨勢

本文作者: 陳彩嫻 2021-11-23 15:46
導語:理論與實踐要相互驗證。

11月初,2020年度國家科學技術獎勵名單發(fā)布,陳云霽主持的「深度學習處理器體系結構新范式」項目獲得國家自然科學獎二等獎。

該獲獎項目的參與人均來自中國科學院計算技術研究所,除了陳云霽研究員,還有陳天石研究員、杜子東博士、孫凝暉院士與郭崎研究員,可以說集結了人工智能與高性能計算雙領域的兩派高手。

計算機領域無人不知:陳云霽與陳天石等人開發(fā)出國際首個深度學習處理器芯片寒武紀1號,引起全球范圍內的廣泛關注,陳云霽與陳天石也因此被國際科學頂刊Science刊文評為AI芯片的「先驅者」。

傳統(tǒng)上認為,處理器芯片的研究創(chuàng)新偏向「從無到有」的發(fā)明系列。而這次計算所團隊的工作獲得的是處理器芯片領域歷史上首個國家自然科學二等獎。國家自然科學獎是中國五個國家科學技術獎之一,授予在基礎研究和應用基礎研究中闡明自然現象、特征和規(guī)律、做出重大科學發(fā)現的公民。

因此,AI科技評論第一時間聯(lián)系了陳云霽本人,就本次獲獎項目與深度學習處理器的相關研究內容與陳云霽教授進行了較為深入的交流。

據陳云霽介紹,他們本次獲得國家自然科學獎二等獎的項目主要是從理論上闡明了深度學習算法在硬件上執(zhí)行的共性基本規(guī)律,從而形成了深度學習處理器這樣一種體系結構新范式。

例如,他們發(fā)現深度學習在計算上的五個最基本算子:向量、矩陣、距離、非線性函數與排序。如同樂高拼插件,基于這五個算子設計出的深度學習處理器,可以處理成千上萬、不斷演進的深度學習算法。這為后來者在深度學習處理器方向發(fā)力做出了重要的指導作用。

此外,陳云霽介紹,這十多年來,他們主要在做兩件事:一是開發(fā)深度學習處理器助力人工智能計算,二是反過來,用人工智能方法指導芯片的設計,該方向也日益受到學者們的關注。


1、獲獎項目詳情

AI科技評論:能否介紹一下這次獲獎項目(「深度學習處理器體系結構新范式」)的研究背景?

陳云霽:人類社會開始逐漸進入智能時代,其中最核心的技術之一就是深度學習。深度學習對計算量的需求非常大,因為里面的模型往往是一個大規(guī)模的多層人工神經網絡。一般來說,模型的規(guī)模越大,層數越多,潛在的表達能力就越強。某種意義上來說,計算量與智能水平之間的關系是正相關的。那么,這就帶來一個問題:傳統(tǒng)的芯片不一定適合深度學習的計算模式。所以我們提出了深度學習處理器這樣的新體系結構范式,用來應對深度學習的任務。

所謂「范式」(paradigm),就是「受到廣泛認可的模式」。比如說,CPU(中央處理器)就是一種范式,有很多企業(yè)參照 CPU 這個范式做出了各種各樣的 CPU 來。GPU(圖形處理器)也是一種范式,AMD、英偉達也是根據 GPU 這種范式去設計GPU芯片。我們提出來的深度學習處理器,也是一種范式,大家可以參照這種范式去設計各種各樣的處理器芯片。

AI科技評論:深度學習處理器是您與陳天石教授共同提出來的,大概在2014年前后。這個項目也是沿襲了當時的研究嗎?

陳云霽:對,是一脈相承的。最開始我們是設計了一個具體的深度學習處理器結構,比如2014年的DianNao,是我們跟法國INRIA(法國國立計算機及自動化研究院)合作的。但一個架構背后的基本規(guī)律與范式是什么?就是我們這個項目的貢獻。雷鋒網

獨家 | 對話陳云霽:深度學習處理器之外,用人工智能指導芯片設計也漸成趨勢

圖注:國際首個深度學習處理器芯片寒武紀1號

AI科技評論:您是說理論上的研究突破嗎?

陳云霽:對。所謂的「范式」,就好比一個模板。具體的深度學習處理器架構,是可以根據這個模板去衍生出來的。過去我們設計一個具體的深度學習處理器,當然也很有意義,但可能會更偏向發(fā)明。而我們這次的工作,最主要是找到了深度學習處理器架構背后的共性范式,有了這個范式后,其他高校與企業(yè)都可以參照這個范式去設計自己的芯片。雷鋒網

AI科技評論:能否具體講講范式的內涵?

陳云霽:我們最主要是找到了深度學習算法在硬件上執(zhí)行的共性基本規(guī)律,包括計算、訪存和通信。

以計算為例。我們發(fā)現,你要設計一個深度學習處理器,可以設計成各種各樣,但必須至少支持五種最基本的算子:向量、矩陣、距離、非線性函數與排序。只要你支持好這五種算子,就可以支撐成千上萬種深度學習算法。雷鋒網

就好像樂高積木。樂高積木就是通過基本的接插件去拼出各種各樣的城堡、飛機等等,我們相當于找到了最基本的樂高接插件。深度學習可能會不斷演進或產生新的深度運算,但沒有關系,我只要用這五個小樂高就可以把它給搭出來。所以這是我們在自然科學規(guī)律上的一個發(fā)現。

AI科技評論:這個項目大概是從什么時候開始的?

陳云霽:最早是2008年。當時我們開始探索人工智能和芯片設計的交叉研究。我從2002年開始做芯片設計,我弟弟陳天石從2005年讀研開始研究人工智能算法。所以我們就一起探討人工智能與芯片設計的交叉結合。雷鋒網

AI科技評論:我們看到這個項目中還有杜子東博士、孫凝暉院士與郭崎研究員,他們是從什么時候開始加進來的?

陳云霽:最早是我和陳天石,后來孫凝暉院士、杜子東博士與郭崎研究員陸續(xù)加進來。深度學習處理器是一系列的工作,我們每個人都在其中做出了自己的貢獻。

我跟陳天石可能參與得多一點,方方面面都參與了。杜子東也是比較早參與到這個工作中的,從他讀研時開始,在算子之間的融合運算模式中起到了非常關鍵的作用。郭崎也是從2008年就開始參與,那時候他還是一個博士生,主要是在訪存方面做了一些工作。

孫凝暉院士既是我們研究所(中國科學院計算技術研究所)的學術所長,也是我們計算機體系結構國家重點實驗室的主任。我們這個工作是一個體系結構的工作,孫院士在計算和通信的體系結構規(guī)律的探索上都作出了很重要的貢獻。雷鋒網

AI科技評論:深度學習處理器是不是高性能計算與人工智能的結合?

陳云霽:我覺得它在很多思想與方法上將這兩個方面結合到了一起。如果時間倒退到十多年前,大家可能會覺得高性能計算與人工智能之間沒有什么直接關系,因為那時候深度學習方法還不是那么流行。當時人工智能的主流是支持向量機之類的方法,需要的計算量比較小,模型也比較小。

但現在不是這樣的。有一個非常有名的例子:2012年,谷歌大腦用1.6萬個CPU核去做深度學習訓練,教系統(tǒng)如何識別人臉、貓臉等。

獨家 | 對話陳云霽:深度學習處理器之外,用人工智能指導芯片設計也漸成趨勢

這是一個明顯的、高性能計算與人工智能匯聚在一起的例子,而芯片又是高性能計算中最關鍵的部分。

這也與我們計算所的長期淵源有關。上世紀80年代末,李國杰院士從國外回來,成立了國家智能計算機研究開發(fā)中心。李院士是第一任主任,后來孫院士是第二任主任。我們這些研究實際上也是沿著這個脈絡流傳下來的。這使得我們的成員對人工智能的發(fā)展脈絡有比較清晰的理解,其次是啟發(fā)我們去思考人工智能算法共有的計算模式是什么樣的。

AI科技評論:與寒武紀相比,這個項目更多是一個學術研究項目,還是一個工業(yè)研究項目?

陳云霽:這完全是一個基礎理論研究項目。國家自然科學獎都是面向基礎科學研究?;A研究的一個特點是要促進整個人類的進步,尤其是對于計算所這樣一個國立科研院所來說,它應該是通過技術研究,能夠讓國內同行、國外的同行乃至整個社會從中受益。當然,寒武紀1號芯片也受到了這個項目論文的影響。

理論上的指導非常重要。舉個例子,如果沒有愛因斯坦的質能方程(E=MC^2),所有的核電站都是不存在的。所以,需要有一個基本的理論,然后大家根據這個理論去設計各種各樣的具體芯片。所以,它的目標還是推動整個社會的進步。


2、深度學習處理器研究觀察

AI科技評論:根據您的觀察,應用于深度學習的處理器在體系結構上有什么特點?與用于通用計算的處理器有什么相同或不同之處?

陳云霽:從計算和訪存兩個維度上來說吧。

從計算維度上看,通用計算最主要是做加減乘除,但對于深度學習處理器來說,最基本的是我剛剛講的五個算子。

從訪存的角度來看,通用 CPU 在訪問內存時是一個通道,而深度學習算法有一個共性,是里面的數據可以分為三個流,就像小朋友放學回家、會自動排成三個路隊,比如說輸入神經元、輸出神經元與連接權重。

基于這些客觀規(guī)律,我們在設計深度學習處理器的部件時,就會針對性地去設計。在計算層面,我們也可以把它拆解成五種共性的基本算法。在訪存層面,它可以抽象成一個訪存數據流,最后自動聚成三個流。

從實踐的角度,具體的芯片你想怎么設計都是可以的。原先你可以把大家強行按在一個通道里。但我們把理論上的客觀規(guī)律告訴學術界和工業(yè)界之后,大家一般就會設計三個獨立的通道,兵分三路,那么效率肯定會提高。

AI科技評論:據您了解,您的團隊所提出的理論影響的設計芯片的公司有哪些?

陳云霽:引用我們的發(fā)現的單位非常多。我們這里有一個大概的統(tǒng)計,說現在全球有5大洲、30個國家/地區(qū)、200個機構在引用或跟蹤我們的工作,其中接近一半是美國的機構,引用者包括15位中美院士和120余位ACM/IEEE Fellow。全球前一百的大學(QS排名)一大半在引用我們的工作,包括哈佛、斯坦福、麻省理工、普林斯頓等等。很多業(yè)界頂尖的芯片公司,包括英偉達、谷歌、華為、聯(lián)發(fā)科、英特爾、三星、IBM、高通、微軟、臺積電、蘋果、AMD等,都在引用我們項目的成果,開展相關研究。

所以深度學習領域最權威的教科書《Deep Learning》(又稱「花書」),由圖靈獎獲得者Yoshua Bengio所著,也引用了我們的工作。

我記得有位院士說過,做科研就兩個目標,一個是進教科書,一個是進貨架。能實現哪一個都是很好的。對我們計算所來說,我們最期望的事情是進教科書里。過去我們基礎理論的工作能夠進教科書的還是不多的。

AI科技評論:所以您是更關注它在學術上的突破對嗎?

陳云霽:對。學術的突破也會受到我們國際同行企業(yè)的關注。舉個例子,光英偉達就引用了我們的工作超過50次,英偉達的首席科學家 Bill Dally 在他的一些核心研究中也多次引用我們的工作,而且明確地指出他們的方法跟我們之前的工作類似。包括谷歌做的第一篇深度學習處理器論文,里面的作者有一位圖靈獎得主和三位美國工程院院士,也引用了我們這個項目里的多個成果。

AI科技評論:您在深度學習處理器上的研究是否主要分為體系架構設計階段與理論完善階段?還是有其他分法?

陳云霽:應該不是這樣劃分。我們從2007年、2008年開始,就是將理論與實踐緊密結合。中科大的校訓就是「理實交融」。一方面, 我要設計一個具體的芯片,但另一方面,我們也要找出芯片背后的規(guī)律是什么。

就拿馮諾依曼體系結構來說。它是怎么出來的呢?是美國造了第一臺通用計算機,叫「伊尼亞克」(ENIAC)。設計ENIAC的兩個工程師,一個叫John Mauchly,一個叫Presper Eckert。造ENIAC的人當然有很多寶貴的經驗,但也有很多地方沒想清楚,所以在初步建成ENIAC后,他們就請了馮·諾依曼來當顧問。

獨家 | 對話陳云霽:深度學習處理器之外,用人工智能指導芯片設計也漸成趨勢

圖注:第一臺通用計算機ENIAC

馮·諾依曼仔細分析了這臺機器的優(yōu)劣之處,然后提出了馮諾依曼架構,在此之后,我們造計算機都按照馮諾依曼機構來。所以從某種意義上說,沒有ENIAC,就沒有馮諾依曼架構。但如果沒有馮諾依曼架構,不做理論突破,只照著當年的ENIAC,就沒有現在的計算機,因為當時的ENIAC有很多問題。

我舉個例子。如果你想聽歌,聽完歌后看電影,換個App就行,不需要將手機拆開、電路板拆開重組。但那個時候的ENIAC不是這樣的。你想讓它干別的事,得把機器里面的電線管子拔來插去,弄半天才能換個任務。然后馮·諾依曼總結了ENIAC的得失,進行了科學探索,形成了馮·諾依曼架構,才形成了我們現在計算機的最基本范式。

AI科技評論:所以從2008年開始,你們就是理論與實踐雙管齊下。

陳云霽:對,我們一直都是這樣。理論與實踐要相互印證。我記得毛主席的實踐論里面就談到,認識的第一次飛躍是從感性認識到理性認識,然后第二次飛躍再從理性回到實踐中,如此螺旋交替上升。理論與實踐是密不可分的。

AI科技評論:您會怎樣劃分您在深度學習處理器上的研究內容?

陳云霽:這十多年來,我們其實就干了兩件事,一個是開發(fā)深度學習處理器來幫助人工智能處理,另一個是用人工智能來幫助芯片設計。

現在這個問題(用人工智能幫助芯片設計)也很熱門。比如,我們在設計一個具體的芯片時,里面有很多參數,我們不知道哪一個選擇是最好的,就可以用人工智能方法幫我們挑出來。還有布局、布線問題?,F在谷歌也在用人工智能去做芯片的布局與布線(Placement & Routing)。一個芯片里有幾十億甚至上百億個晶體管,要用線將它們連接起來,那么某個晶體管應該放在什么地方?它們之間怎么連線?這是一個非常復雜的問題,全靠人工去做不太現實。

AI科技評論:你們的一個標志性工作在2014年拿了ASPLOS最佳論文獎,所以從2008年到2014年間主要是做了這兩件事對嗎?

陳云霽:是的。這個過程其實非常痛苦,挑戰(zhàn)性也比較大。在當時,我們做人工智能和芯片設計的交叉研究,就像在一個迷霧森林里,不知道東西南北,甚至不知道有沒有出口,很茫然。當我們告訴大家我們做了一個深度學習處理器的時候,其實最艱難的地方已經過去了。最難的時候,我們甚至不知道自己在干什么,只知道想把人工智能與芯片設計結合起來,那結合起來到底會產生什么?我們不知道。

AI科技評論:那是在哪一個節(jié)點稍微感覺有頭緒了呢?

陳云霽:可能是2012年左右開始有一點感覺了。

AI科技評論:當時是取得了哪些突破、讓你們感覺沒那么茫然嗎?

陳云霽:這個沒有。我們不是坐在那突然靈光一現,都是慢慢摸索,有很多小的成功,最后匯成了一個大的突破。

在2014年以前,我們最大的挑戰(zhàn)可能是,我們在做的這個研究在當時的學術界是不認可的,工業(yè)界是不關心的,然后做這個(深度學習處理器)也發(fā)不了論文、申不了項目。但是,我們相信自己的學術理想,所以最后能夠堅持做下來。

其實世界上聰明的人很多,只要你看準了一個方向,能夠堅持做起來,我覺得基本上都能夠看到成果。

AI科技評論:2014年獲得ASPLOS最佳論文后,你們的研究內容有變化嗎?

陳云霽:2014年之后,我們還是在這方面繼續(xù)做了一系列工作。比如,我們開發(fā)了國際上第一個深度學習處理器的指令集 Cambricon,發(fā)表在了ISCA 2016上(獲得最高分)。我們獲得國家自然科學獎的成果,有很多是從那篇文章(如下)體現出來的,因為它歸納了一些最基本的計算與訪存知識。

獨家 | 對話陳云霽:深度學習處理器之外,用人工智能指導芯片設計也漸成趨勢

論文鏈接:https://max.book118.com/html/2019/0610/8003056114002027.shtm

AI科技評論:您在剛剛工作的時候就去做這種交叉研究,還是非常有勇氣的。

陳云霽:是的,我現在想想也是挺無知無畏的。

我覺得當時最主要是有一個比較好的環(huán)境。坦率來說,現在國內學術界的青年科研人員的壓力其實非常大,一會要評副高,一會要評正高,一會要評博導,在這么大的生存壓力下,他們還有沒有勇氣去做一些國際主流學術界不認可的方向?反過來說,你想做一個國際上原創(chuàng)性的工作,那么在這個工作做出來之前,它一定是不被認可的。

去做一個全世界不認可的工作,然后通過自己的努力讓這個工作被國際學術界認可,而且成為國際學術界的主流,這是最理想的情況。這條路的風險非常大,所以現在大部分青年科研人員只能屈從生存壓力,在國際主流學術界已經認可的方向上做一些添磚加瓦的工作,比較容易發(fā)文章,評職稱的風險會小一點。

但真正具有原創(chuàng)性的創(chuàng)新工作,往往是一個年輕博士在剛畢業(yè)時做出來的。比如,愛因斯坦提出狹義相對論的時候只有25歲。那現在我們25歲的人敢不敢去做這樣的大問題?這是個問題。

不過人非圣賢,肯定都要考慮自己的實際生活。我覺得還有一種選擇,就是青年科研人員能有一半的時間做國際主流的研究,再拿出一半的時間去做一些非共識的研究,能夠平衡一下風險與收益。當時我們也是這樣做的。

AI科技評論:您當時除了做深度學習處理器,還有做其他研究嗎?

陳云霽:對。我從剛畢業(yè)到2012年評上研究員、博導之前,主要的工作是做龍芯的通用CPU。當時胡偉武老師讓我擔任龍芯3號的主架構師,做的是傳統(tǒng)的芯片。所以我相當于大部分精力是花在了這上面。

獨家 | 對話陳云霽:深度學習處理器之外,用人工智能指導芯片設計也漸成趨勢

AI科技評論:如果當時是all in的話,可能也受不了。

陳云霽:對。我一個剛剛畢業(yè)的博士生,一篇論文發(fā)不了,就算計算所不會把我怎么樣,我自己也會感覺不踏實。但是你不能說一個人等已經評上了教授,再去做真正原創(chuàng)性的創(chuàng)新。雷鋒網

AI科技評論:您剛剛談到馮諾依曼體系架構。上世紀90年代,國際上也曾經有過一陣研制神經網絡計算機的熱潮,現在的深度學習與神經網絡處理器研究與當年相比有什么突破?解決了哪些當年無法解決的問題?

陳云霽:在上世紀90年代,不說國外,國內像李國杰院士、陳國良院士都做過這方面的工作。但當時最主要的問題是,他們那個時候能處理的神經網絡規(guī)模很小,一般來說幾層神經網絡,1000個神經元。

在深度學習時代,我們要處理的神經網絡是沒有上限的,理論上可以達到幾百層,幾十億個神經元,這就帶來了一個質變:你怎么樣用一個有限規(guī)模的硬件去處理一個無限規(guī)模的算法?這是上世紀90年代那些工作不一定能解決的。

AI科技評論:你們提出來的深度學習處理器可以解決多大的神經網絡?

陳云霽:不受規(guī)模限制。雷鋒網

AI科技評論:現在大模型預訓練已經成為一種潮流,但由于對計算資源要求高、運行時間長、成本高,中小企業(yè)難以接受。您如何看這種趨勢,您的研究是否可以補上中小企業(yè)AI研究的短板?

陳云霽:我覺得隨著計算技術的不斷發(fā)展,大模型會逐漸進入到每個企業(yè)、每個人所能達到的范疇里。就像視頻編解碼。在上個世紀,視頻編碼也是只有很大的機器才能做的事情,也就是只有大的企業(yè)去做。但現在我們的手機就可以視頻編碼,你隨便拍一個視頻,然后它在手機上給你編碼好。所以我對大模型是很樂觀的,只是需要時間,遵循「摩爾定律」。摩爾定律還是很強的。雷鋒網

獨家 | 對話陳云霽:深度學習處理器之外,用人工智能指導芯片設計也漸成趨勢

圖注:英特爾聯(lián)合創(chuàng)始人戈登·摩爾(Gordon Moore)在1965年提出摩爾定律,認為「集成電路芯片上所集成的晶體管數量每隔18個月翻一番」,帶來芯片算力的指數增長,也促進了通用計算機的飛速發(fā)展

AI科技評論:不是說摩爾定律已經失效了嗎?

陳云霽:我上大學的時候就說摩爾定律要失效了,現在還沒有失效。還有很多晶體管結構、封裝、器件材料上的創(chuàng)新,有可能再延續(xù)摩爾定律更長的時間。我上大學的時候還聽過一個說法,說地球上的石油還有XX年就用完了,但現在大家說還有很多(石油)。雷鋒網

AI科技評論:在您所設想的通用智能處理器體系結構中,深度學習處理器、CPU與GPU等分別扮演什么角色?

陳云霽:它們的目標領域不一樣。GPU是面向圖形處理,DSP是面向信號處理,深度學習處理器是面向智能處理,CPU是什么都干。在現代計算機體系結構里,CPU就像一個司令官,它不再以計算為主要職責,更多是扮演一個管理調度的角色。


3、AI芯片的人才培養(yǎng)

AI科技評論:據您觀察,近幾年AI芯片的人才缺口方面有沒有改善?

陳云霽:我們國家現在有很多高校成立了人工智能專業(yè),或人工智能學院。但據我過去觀察,人才培養(yǎng)上還是有很大的缺失。不光是數量上的缺失,還有培養(yǎng)方法上的缺失。大家都是培養(yǎng)學生怎么寫人工智能算法,或寫人工智能APP。雷鋒網

我們的一個長期問題是「頭重腳輕」,應用層做得非常好,但軟硬件根基層上一般,基本不培養(yǎng)做核心軟硬件的人才。這是一個很大的趨勢。有一年,斯坦福大學邀請我去開一個關于智能計算系統(tǒng)基礎軟硬件的短期課程,我在網上查了一下才發(fā)現,斯坦福也沒有這樣的課程,所以它才會找我去(講課)。然后國內也沒有這樣的課程。雷鋒網

我當時就在想,我們是不是應該做點什么事?所以,2019年,我們就在中國科學院大學開設了國內第一門《智能計算系統(tǒng)》課程,希望培養(yǎng)一批對人工智能的基礎軟硬件有融會貫通的理解的人才。

AI科技評論:目前課程還在開設嗎?有取得成效嗎?

陳云霽:這門課程現在還在進行中,近年來還是取得了比較好的成效?,F在全國已經有 80 所高校都開設了這門課。我們把教材寫好了,教案寫好了,PPT也寫好了,MOOC也做好了,而且全部放到了網上。我們還搭了一個大的云平臺,供大家做實驗。雷峰網

從數據觀察,我們現在已經培養(yǎng)了大約1.3萬名學生。這門課程已經被國科大、中科大、北大、清華、北航、復旦、上交等學校列入了他們的本科生或研究生培養(yǎng)計劃里。我們還舉辦了多次導教班/助教班,培養(yǎng)了180余所學校約1200位老師和約200位助教。雷鋒網

AI科技評論:在人才培養(yǎng)上,您的建議與看法是什么?我們還需要加大哪些方面的投入?

陳云霽:還是要理論與實踐相結合。不能光教理論,一定要讓學生動手做實驗。我們程序員行業(yè)里面有一句著名的話:Talk is cheap. Show me the code.(話語是廉價的,給我看你的代碼。)如果你沒有真正動手去寫代碼,你就不能理解一個真正的智能計算系統(tǒng)如何運轉。雷峰網(公眾號:雷峰網)

雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知。

獨家 | 對話陳云霽:深度學習處理器之外,用人工智能指導芯片設計也漸成趨勢

分享:
相關文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說