0
本文作者: 我在思考中 | 2022-01-13 16:01 |
編輯丨 青暮
Jeff Dean表示,“在過去幾十年里,我們見證了機器學習和計算機科學領(lǐng)域的許多重大變化。早期方法的失效促進了現(xiàn)代方法的誕生,并被證明非常有效。”
按照這種發(fā)展模式,他認為,我們將在未來幾年內(nèi)見證一些“令人興奮的進展”,這些進展最終將造福數(shù)十億人的生活,產(chǎn)生比以往任何時候都更大的影響。
在這篇文章中,Jeff Dean重點介紹了機器學習有望產(chǎn)生此等影響的五個方面。對于每個方面,他將討論谷歌相關(guān)的研究(主要是從2021年開始),以及在未來幾年可能出現(xiàn)的新方向和新進展。
這些方面分別涉及了算法、效率、個性化、全球化、責任:
算法上,基于Transformer的大規(guī)模預(yù)訓練模型如今無論是在單模態(tài)數(shù)據(jù)的多任務(wù)通用性,以及多模態(tài)聯(lián)合學習的能力上,都證明了自身的潛力;
效率上,從算力到模型訓練、部署,機器學習流水線的效率正不斷提高;在模型運行方面,編譯器的改進和加速器軟件的優(yōu)化也提供了很大的助力;而架構(gòu)方面的改進,自動化機器學習的持續(xù)發(fā)展、以及對模型稀疏性的利用,都讓算法研究發(fā)展迅速;
個性化上,機器學習不僅應(yīng)用變得更加廣泛,而且越來越人性化,在功能上越來越自然,同時也更加注重隱私保護;
全球化上,機器學習的影響范圍越來越廣闊,涉及到愈發(fā)多樣的全球性問題,比如科學研究、醫(yī)療、芯片設(shè)計、碳排放緩解、自然災(zāi)害預(yù)防等等;
最后是責任,盡管飽受爭議,但Jeff Dean表示,谷歌對于AI公平性非常重視,并從數(shù)據(jù)、算法、傳播分析、模型可解釋性、文化差異性研究以及大模型隱私保護上做了大量工作。
可以說,機器學習正在并且也將變得無處不在。
以下是關(guān)于五大趨勢總結(jié)的編譯介紹:
如今,研究者正在訓練比以往任何時候都更大型、功能更強大的機器學習模型。
例如,僅在最近幾年,語言領(lǐng)域的模型規(guī)模已經(jīng)從在數(shù)百億個數(shù)據(jù)標記上訓練的數(shù)十億個參數(shù)(例如,11B 參數(shù)的T5模型),發(fā)展到在數(shù)萬億個數(shù)據(jù)標記上訓練的數(shù)百億參數(shù)(例如,密集模型如 OpenAI 的 175B 參數(shù) GPT-3 模型和 DeepMind 的 280B 參數(shù) Gopher 模型,以及稀疏模型如 Google 的 600B 參數(shù) GShard 模型和 1.2T 參數(shù) GLaM 模型)。
數(shù)據(jù)集和模型規(guī)模的增強,使得各種語言任務(wù)的準確性顯著提高,正如標注自然語言處理(NLP)基準任務(wù)的全面提升所表明的那樣(例如對語言模型和機器翻譯模型的神經(jīng)標度定律的研究所預(yù)測的)。
上述大部分高級模型都專注于書面語言的單一但不可或缺的模態(tài)數(shù)據(jù),并在語言理解基準和開放式對話能力方面展現(xiàn)出最先進的成果,甚至在一個領(lǐng)域中的多個任務(wù)中也具有如此表現(xiàn)。
此外,它們還表現(xiàn)出令人興奮的能力,可以在訓練數(shù)據(jù)相對較少的情況下推廣到新的語言任務(wù)。某些情況下,新任務(wù)的訓練示例很少甚至沒有。例如,NLP中的改進長問答、零標簽學習任務(wù)。谷歌還提出了LaMDA模型,該模型展示了一種復(fù)雜的能力,可以進行開放式對話,在多輪對話中保持重要的上下文聯(lián)系。
圖注:“與 LaMDA 的對話,通過預(yù)設(shè)真實提示模仿威德爾海豹,“嗨,我是威德爾海豹。你有什么問題要問我嗎?” 該模型在很大程度上保持了對話的角色特征。
Transformer 模型也對圖像、視頻和語音模型產(chǎn)生了重大影響,正如視覺 Transformer 模型的標度定律所預(yù)測的那樣,所有這些任務(wù)也都從規(guī)模擴展中受益匪淺。
用于圖像識別和視頻分類的Transformer在許多基準上都取得了最先進的成果,谷歌還證明,與單獨使用視頻數(shù)據(jù)相比,在圖像數(shù)據(jù)和視頻數(shù)據(jù)上的聯(lián)合訓練模型可以提高視頻任務(wù)的性能。
他們?yōu)閳D像和視頻Transformer開發(fā)了稀疏的軸向注意力機制,可以更有效地使用計算,為視覺Transformer模型找到更好的標記圖像方法,并通過檢查視覺Transformer方法與卷積神經(jīng)網(wǎng)絡(luò)的操作方式相比,提高了對視覺Transformer方法的理解。將Transformer模型與卷積運算相結(jié)合,已在視覺和語音識別任務(wù)中顯示出顯著的優(yōu)越性。
生成模型的輸出質(zhì)量也在大幅提高,這在圖像的生成模型中表現(xiàn)得最為明顯。
例如,最近的模型已經(jīng)證明,僅給定一個類別(例如,輸入“愛爾蘭塞特”或“有軌電車”)就可以創(chuàng)建逼真的圖像,也可以通過修復(fù)低分辨率圖像,以創(chuàng)建一個看起來自然的高分辨率匹配圖像(例如,輸入“計算機,增強!”),甚至可以創(chuàng)建任意大小的自然場景。
另一個例子是,可以將圖像轉(zhuǎn)換為一系列離散標記,然后可以使用自回歸生成模型以高保真度合成這些標記。
圖注:級聯(lián)擴散模型的示例,該模型從給定類別生成新圖像,然后將其用作種子來創(chuàng)建高分辨率示例:第一個模型生成低分辨率圖像,其余模型對最終高分辨率圖像執(zhí)行上采樣。
SR3 超分辨率擴散模型將低分辨率圖像作為輸入,并從純噪聲構(gòu)建相應(yīng)的高分辨率圖像。
視頻鏈接:https://iterative-refinement.github.io/assets/cascade_movie2_mp4.mp4
這些強大的功能背后,亦伴隨著巨大的責任,因此谷歌表示會根據(jù)其 AI 原則仔細審查此類模型的潛在應(yīng)用。
除了先進的單模態(tài)模型外,谷歌也開始注意大規(guī)模多模態(tài)模型的潛力。這些是迄今為止最先進的模型,因為它們可以接受多種輸入模態(tài)(例如,語言、圖像、語音、視頻),并可以生成多種輸出模態(tài),例如,基于描述性的句子或段落生成圖像,或用人類語言描述圖像的視覺內(nèi)容。
這是一個令人興奮的方向,因為和現(xiàn)實世界一樣,在多模態(tài)數(shù)據(jù)中有些東西更容易學習(例如,閱讀并觀看演示比僅僅閱讀更有用)。因此,將圖像和文本配對可以幫助完成多語言檢索任務(wù)。并且,更好地理解如何將文本和圖像輸入配對,可以為圖像描述任務(wù)帶來更好的結(jié)果。
同樣,對視覺和文本數(shù)據(jù)的聯(lián)合訓練也有助于提高視覺分類任務(wù)的準確性和魯棒性,而對圖像、視頻和音頻任務(wù)的聯(lián)合訓練可以提高所有模態(tài)的泛化性能。
此外還有一些跡象表明,自然語言可以用作圖像處理的輸入,告訴機器人如何與世界交互并控制其他軟件系統(tǒng),這預(yù)示著用戶界面的開發(fā)方式可能會發(fā)生變化。這些模型處理的模態(tài)將包括語音、聲音、圖像、視頻和語言,甚至可能擴展到結(jié)構(gòu)化數(shù)據(jù)、知識圖譜和時間序列數(shù)據(jù)。
圖注:基于視覺的機器人操作系統(tǒng)示例,該系統(tǒng)能夠泛化到新任務(wù)。左圖:機器人正在執(zhí)行一項基于“將葡萄放入陶瓷碗中”指令的任務(wù),而模型并未接受該特定任務(wù)的訓練。右圖:類似左圖,但任務(wù)描述為“將瓶子放入托盤”。
這些模型通常使用自監(jiān)督學習方法進行訓練,其中模型從未經(jīng)標記的“原始”數(shù)據(jù)的觀察中學習,例如 GPT-3 和 GLaM 中使用的語言模型、自監(jiān)督語音模型 BigSSL 、視覺對比學習模型 SimCLR 和多模態(tài)對比模型 VATT。自監(jiān)督學習讓大型語音識別模型得以達到之前的語音搜索自動語音識別 (ASR) 基準的準確度,同時僅使用 3% 的帶注釋訓練數(shù)據(jù)。
這些趨勢令人興奮,因為它們可以大大減少為特定任務(wù)啟用機器學習所需的工作量,并且由于使得在更具代表性的數(shù)據(jù)上訓練模型變得更容易,這些數(shù)據(jù)更好地反映了不同的亞群、地區(qū)、語言,或其他重要的表示維度。
所有這些趨勢都指向訓練功能強大的通用模型的方向,這些模型可以處理多種數(shù)據(jù)模式,并解決成千上萬個任務(wù)。通過構(gòu)建稀疏性模型,使得模型中唯一被給定任務(wù)激活的部分,僅有那些為其優(yōu)化過的部分,從而這些多模態(tài)模型可以變得高效。
Jeff Dean表示,在接下來的幾年里,谷歌將基于Pathways架構(gòu)追求這一愿景。
Pathways:谷歌正在努力的統(tǒng)一模型,可以泛化至數(shù)百萬個任務(wù)。
由于計算機硬件設(shè)計以及機器學習算法和元學習研究的進步,機器學習的效率得到持續(xù)提升,推動著機器學習模型的功能變得更加強大。
ML 流水線涉及許多方面,從訓練和執(zhí)行模型的硬件,到 ML 架構(gòu)的各個組件,都可以進行效率優(yōu)化,同時保持或提高整體性能。
與前幾年相比,這些線程中的每一個都可以以顯著的乘法因子提高效率,并且綜合起來可以將計算成本(包括二氧化碳當量排放量)降低幾個數(shù)量級。
更高的效率促成了許多關(guān)鍵的進步,這些進步將繼續(xù)顯著提高機器學習的效率,使更大、更高質(zhì)量的機器學習模型能夠以高效的方式開發(fā),并進一步使訪問公平化。
ML 加速器性能的持續(xù)改進
每一代 ML 加速器都在前幾代的基礎(chǔ)上進行了改進,使每個芯片的性能更快,并且通??梢詳U大整個系統(tǒng)的規(guī)模。
去年,谷歌發(fā)布了其TPUv4 系統(tǒng),這是谷歌的第四代張量處理單元,它在 MLPerf 基準測試中比 TPUv3 提升了 2.7 倍。TPUv4 芯片的峰值性能是 TPUv3 芯片的約 2 倍,每個 TPUv4 pod 的規(guī)模為 4096 個芯片(是 TPUv3 pod 的 4 倍),每個 pod 的性能約為 1.1 exaflops(而每個 TPUv3 pod約為 100 petaflops)。擁有大量芯片并通過高速網(wǎng)絡(luò)連接在一起的 Pod 可以提高大型模型的效率。
此外,移動設(shè)備上的機器學習能力也在顯著提高。Pixel 6 手機采用全新的 Google Tensor 處理器,該處理器集成了強大的 ML 加速器,以更好地支持重要的設(shè)備功能。
左:TPUv4 主板;中:TPUv4 pod的一部分;右圖:在 Pixel 6 手機中的 Google Tensor 芯片。
Jeff Dean表示,谷歌使用 ML 來加速各種計算機芯片的設(shè)計也帶來了好處,特別是在生產(chǎn)更好的 ML 加速器方面。
ML 編譯和 ML 工作負載優(yōu)化的持續(xù)改進
即使硬件不變,編譯器的改進和機器學習加速器系統(tǒng)軟件的其他優(yōu)化也可以顯著提高效率。
例如,“A Flexible Approach to Autotuning Multi-pass Machine Learning Compilers”展示了如何使用機器學習來執(zhí)行編譯設(shè)置的自動調(diào)整,用于同一底層硬件上的一套 ML 程序,以獲得 5-15% 的全面性能提升(有時甚至高達2.4 倍改進)。
此外,GSPMD 描述了一種基于 XLA 編譯器的自動并行化系統(tǒng),該系統(tǒng)能夠?qū)⒋蠖鄶?shù)深度學習網(wǎng)絡(luò)架構(gòu)擴展到加速器的內(nèi)存容量之外,并已應(yīng)用于許多大型模型,例如 GShard-M4、LaMDA、BigSSL、ViT、MetNet -2 和 GLaM,在多個領(lǐng)域產(chǎn)生了最先進的成果。
圖注:通過在 150 個 ML 模型上使用基于 ML 的編譯器自動調(diào)整實現(xiàn)端到端模型加速。圖中包括實現(xiàn) 5% 或更多改進的模型。條形顏色代表優(yōu)化不同模型組件的相對改進。
人類創(chuàng)造的更高效模型架構(gòu)
模型架構(gòu)的持續(xù)改進大大減少了為許多問題實現(xiàn)給定精度水平所需的計算量。
例如,谷歌在 2017 年開發(fā)的 Transformer 架構(gòu)能夠提高在多個 NLP 基準上的當前最佳水平,同時使用比其他各種常用方法少 10 到 100 倍的計算來實現(xiàn)這些結(jié)果,例如 LSTM 和其他循環(huán)架構(gòu)。
同樣,盡管使用的計算量比卷積神經(jīng)網(wǎng)絡(luò)少 4 到 10 倍,但視覺 Transformer 能夠在許多不同的圖像分類任務(wù)上顯示出改善的最先進結(jié)果。
機器驅(qū)動的更高效模型架構(gòu)的發(fā)現(xiàn)
神經(jīng)架構(gòu)搜索(NAS)可以自動發(fā)現(xiàn)對給定問題域更有效的新 ML 架構(gòu)。NAS 的一個主要優(yōu)點是它可以大大減少算法開發(fā)所需的工作量,因為 NAS 只需要對每個搜索空間和問題域組合進行單次檢驗。
此外,雖然執(zhí)行 NAS 的初始工作在計算上可能很昂貴,但由此產(chǎn)生的模型可以大大減少下游研究和生產(chǎn)設(shè)置中的計算,從而大大降低總體資源需求。
例如,發(fā)現(xiàn) Evolved Transformer 的單次搜索僅產(chǎn)生了 3.2 噸二氧化碳當量(遠低于其他地方報告的 284 噸二氧化碳當量),但產(chǎn)生了一個比普通的 Transformer 模型效率高 15-20%的模型。
最近,谷歌利用 NAS 發(fā)現(xiàn)了一種更高效的架構(gòu),稱為 Primer(也已開源),與普通的 Transformer 模型相比,它可以將訓練成本降低 4 倍。通過這種方式,NAS 搜索的發(fā)現(xiàn)成本通??梢詮氖褂冒l(fā)現(xiàn)的更有效的模型架構(gòu)中收回,即使它們僅應(yīng)用于少數(shù)下游任務(wù)(NAS 結(jié)果可被重復(fù)使用數(shù)千次)。
NAS還被用于在視覺領(lǐng)域發(fā)現(xiàn)更有效的模型。EfficientNetV2 模型架構(gòu)是神經(jīng)架構(gòu)搜索的結(jié)果,它聯(lián)合優(yōu)化了模型精度、模型大小和訓練速度。在 ImageNet 基準測試中,EfficientNetV2 將訓練速度提高了 5 到 11 倍,同時與以前最先進的模型相比,模型參數(shù)大大減少。
CoAtNet 模型架構(gòu)是通過架構(gòu)搜索發(fā)現(xiàn)的,結(jié)合了視覺 Transformer 和卷積網(wǎng)絡(luò)來創(chuàng)建一個混合模型架構(gòu),其訓練速度比視覺 Transformer 快 4 倍,并實現(xiàn)了新的 ImageNet 最先進結(jié)果。
圖注:EfficientNetV2 的訓練效率比之前的 ImageNet 分類模型要好得多。
廣泛使用搜索來幫助改進 ML 模型架構(gòu)和算法,包括使用強化學習和進化技術(shù),激發(fā)了其他研究人員將這種方法應(yīng)用于不同領(lǐng)域。
除了模型架構(gòu)之外,自動搜索還可用于尋找新的、更有效的強化學習算法,建立在早期的 AutoML-Zero 工作的基礎(chǔ)上。
稀疏性的利用
稀疏性模型具有非常大的容量,但對于給定的數(shù)據(jù)(示例或 token ),只有模型的某些部分被激活,這是另一個可以大大提高效率的重要算法進步。
2017 年,谷歌引入了稀疏門控混合專家層,該層在各種翻譯基準上展示了更好的結(jié)果,同時使用的計算量比以前最先進的密集 LSTM 模型少 10 倍。
最近,Switch Transformers 將混合專家風格的架構(gòu)與 Transformer 模型架構(gòu)相結(jié)合,與密集的 T5-Base Transformer 模型相比,訓練時間和效率提高了 7 倍。
GLaM 模型表明,Transformer 和混合專家風格的層可以結(jié)合起來生成一個模型,該模型在 29 個基準測試中平均超過 GPT-3 模型的準確性,而訓練的能耗減少了 3 倍,推理的計算量減少了 2 倍。稀疏性的概念也可以用于降低Transformer 架構(gòu)中注意力機制的成本。
圖注:BigBird 稀疏注意力模型由關(guān)注輸入序列所有部分的全局標記、局部標記和一組隨機標記組成。從理論上講,這可以解釋為在 Watts-Strogatz 圖上添加一些全局標記。
在模型中使用稀疏性,顯然是一種在計算效率方面具有非常高潛力的方法。Jeff Dean 表示,谷歌只是在這個方向上觸及了皮毛。
與使用 P100 GPU 訓練的基線 Transformer 模型相比,這些提高效率的方法中的每一種都可以組合在一起,可將高效數(shù)據(jù)中心訓練的等效精度語言模型的能源效率提高約 100 倍,產(chǎn)生的二氧化碳排放量減少約 650 倍。
Jeff Dean表示,其團隊很快就會發(fā)表更為詳細的博客文章分析 NLP 模型的碳排放趨勢。
ML 和諸如手機上的Tensor 處理器等硅基硬件的創(chuàng)新,使得移動設(shè)備可以更持續(xù)有效地感知周圍環(huán)境,而這將為用戶帶來一系列新的體驗。
他認為這種進步不僅提高了其可及性、易用性,而且提升了計算的能力,這對改善移動攝影、實時翻譯等功能也至關(guān)重要。值得注意的是,這種最新的技術(shù)在為用戶提供更加個性化體驗的同時,還加強了隱私保障措施。
目前,使用手機攝像來記錄日常生活或進行藝術(shù)表達的熱度空前。Jeff Dean 認為,ML 在計算攝影中的巧妙運用,可以不斷促進手機相機功能的提升,使其操作起來更加容易,也可以提高拍攝性能,產(chǎn)生更高質(zhì)量的圖像。
比如,經(jīng)過改進的HDR+,在非常低的光線下就可以很好地處理人像,使相機更具包容性,并且適用于所有膚色,可以拍攝出能夠達到攝影師預(yù)想視覺效果并且更符合主題的照片。
不僅如此,基于 ML 的 Google Photos 工具,像電影照片、降噪、模糊以及魔術(shù)橡皮擦等,可以進一步完善照片。
圖注:HDR+ 從一連串全分辨率原始圖像開始,每個圖像都有相同的曝光不足(左)。融合后的圖像減少了噪點并增加了動態(tài)范圍,從而獲得了更高質(zhì)量的最終圖像(右)。
除了使用手機進行創(chuàng)作外,Jeff Dean 還列舉了人們依靠手機進行跨語言和跨模式的實時溝通的例子,比如在消息應(yīng)用程序中使用實時翻譯,在通話交流中使用實時字幕等。
得益于自監(jiān)督學習和噪聲學生訓練 (Noisy Student Training)等技術(shù)的進步,語音識別的準確率在重音、嘈雜環(huán)境或語音重疊和多語言環(huán)境下,都有明顯提高?;趶奈谋镜秸Z音合成方面的進展,越來越多的平臺推出了朗讀技術(shù),允許人們用聽的方式獲取網(wǎng)頁或文章內(nèi)容,使信息更容易跨越模態(tài)和語言的障礙。
穩(wěn)定、實時生成的翻譯以及高質(zhì)量、穩(wěn)定、有保障的直接語音翻譯,為使用不同語言交流的人們提供了更好的用戶體驗,機器翻譯中的實時語音翻譯功能也已得到極大改善。
將ML與傳統(tǒng)的編解碼方法相結(jié)合的新工作,可以促使更高保真度的語音、音樂或其它聲音以更低的比特率進行交流。另一方面,Jeff Dean 還表示像自動呼叫或者與 ML 智能體進行的一些日常互動性的功能變得越來越自然。
即使是用戶可能會經(jīng)常進行的,像智能文本選擇等這樣的簡單任務(wù)也得到了改進,可以實現(xiàn)自動選擇電話號碼或地址等,能夠方便復(fù)制粘貼,或者在手機上輸入時的語法糾正。
此外,“屏幕注意(Screen Attention )”可防止手機屏幕在被注視時變暗,并且注視識別(Gaze Recognition)的改進為可訪問性和改善健康狀況開辟了新的用例。ML 也正在啟用新的方法來保障人們和社區(qū)的安全。例如,"可疑信息警報 ( Suspicious Message Alerts )" 對可能存在的網(wǎng)絡(luò)釣魚攻擊發(fā)出警告、"安全路線(Safer Routing ) " 可以檢測到急剎車事件以及提供建議替代路線。
圖注:最近的工作證明了注視識別可作為精神疲勞的重要生物標志物。
然而,這些新功能的開發(fā)離不開數(shù)據(jù)支撐,Jeff Dean 表示鑒于其中潛在的敏感性問題,將其設(shè)置為在默認狀態(tài)下私有是非常有必要的。
其中的很多功能是在安卓私有的計算核心內(nèi)運行,提供了一個與操作系統(tǒng)其它部分隔離的開源安全環(huán)境。安卓系統(tǒng)可以確保在私有計算核心中處理的數(shù)據(jù)不會在用戶不知情的情況下分享給任何應(yīng)用程序。安卓系統(tǒng)還防止私有計算核心內(nèi)的任何功能直接訪問網(wǎng)絡(luò)。
相反,這些功能通過一小套開源 API 與私有計算服務(wù)進行通信,私有計算服務(wù)剝離了識別信息,并利用了包括聯(lián)邦學習、聯(lián)邦分析和私人信息檢索在內(nèi)的隱私技術(shù),確保在學習的同時保護隱私。
圖注:聯(lián)邦重建是一種新穎的部分局部聯(lián)邦學習技術(shù),其中模型被劃分為全局和局部參數(shù)。對于每一輪聯(lián)邦重建訓練:(1) 服務(wù)器將當前全局參數(shù) g 發(fā)送給每個用戶 i;(2) 每個用戶 i 凍結(jié) g 并重建他們的局部參數(shù) l_i;(3) 每個用戶i凍結(jié) l_i 并更新 g 產(chǎn)生 g_i ;(4) 對用戶的 g_i 取平均值,生成下一輪的全局參數(shù)。
在 Jeff Dean 看來,這些技術(shù)對于發(fā)展下一代計算和交互模式至關(guān)重要。個人或公共設(shè)備可以在不侵犯隱私的情況下,從集體模型中學習,并推動模型訓練的進步。
用聯(lián)合無監(jiān)督的方法來學習上述的通用模型,并針對特定的任務(wù)或環(huán)境進行微調(diào),可以產(chǎn)生越來越多的智能系統(tǒng),這些系統(tǒng)更像是一個社會實體而不是機器,與之互動要更為直觀。只有從邊緣到數(shù)據(jù)中心,深入改變技術(shù)堆棧(technology stacks),使其適當支持神經(jīng)計算,才有可能廣泛而公平地使用這些智能接口。
近年來,谷歌看到 ML 在基礎(chǔ)科學中的影響越來越大,從物理學到生物學,在許多相關(guān)領(lǐng)域(例如可再生能源和醫(yī)學)中都具有令人興奮的實際應(yīng)用。
計算機視覺模型已被部署用來解決個人和全球范圍內(nèi)的問題,它們可以協(xié)助醫(yī)生進行日常工作,擴大人們對神經(jīng)生理學的理解,還可以提供更好的天氣預(yù)報結(jié)果和簡化救災(zāi)工作。
通過發(fā)現(xiàn)減少碳排放和提高替代能源輸出的方法,其他類型的 ML 模型被證明在應(yīng)對氣候變化方面至關(guān)重要。
隨著 ML 變得更加健壯、完善和獲得更廣泛的訪問,它在廣泛的現(xiàn)實世界領(lǐng)域中具有高影響力的應(yīng)用的潛力繼續(xù)擴大,有助于解決研究人員面臨的一些最具挑戰(zhàn)性的問題。
計算機視覺的大規(guī)模應(yīng)用以獲得新的洞察力
過去十年,計算機視覺的進步使計算機能夠用于不同科學領(lǐng)域的各種任務(wù)。比如,在神經(jīng)科學中,自動重建技術(shù)可以從腦組織薄片的高分辨率電子顯微鏡圖像中恢復(fù)腦組織的神經(jīng)結(jié)締結(jié)構(gòu)。
前幾年,谷歌為果蠅、小鼠和鳴禽的大腦創(chuàng)建了此類資源。但在去年,他們與哈佛大學的 Lichtman 實驗室合作,分析了以相同粒度成像和重建的多種物種的大腦組織樣本,并首次對人類皮層中的突觸連接進行了大規(guī)模研究,該研究跨越了皮層所有層的多種細胞類型。
這項工作的目標是獲得一種新的資源來幫助神經(jīng)科學家研究人類大腦的復(fù)雜性。例如,下圖顯示了成人大腦中約 860 億個神經(jīng)元中的 6 個神經(jīng)元。
圖注:來自人類皮層重建的單個人類枝形吊燈神經(jīng)元,以及與該細胞連接的一些錐體神經(jīng)元。
此外,計算機視覺技術(shù)還提供了強大的工具來應(yīng)對更大甚至全球范圍內(nèi)的挑戰(zhàn)。
例如,基于深度學習的天氣預(yù)報方法,該方法使用衛(wèi)星和雷達圖像作為輸入,結(jié)合其他大氣數(shù)據(jù),在長達 12 小時的預(yù)測時間內(nèi),產(chǎn)生比傳統(tǒng)的基于物理的模型更準確的天氣和降水預(yù)報。與傳統(tǒng)方法相比,它們還可以更快地生成新的預(yù)測,這在極端天氣中非常重要。
圖注:2020 年 3 月 30 日,不同模型預(yù)測科羅拉多州丹佛市 0.2 毫米/小時降水量的比較。左圖:真實數(shù)據(jù),來源(MRMS)。中間:MetNet-2 預(yù)測的概率圖。右圖:基于物理的 HREF 模型預(yù)測的概率圖。MetNet-2 能夠在預(yù)測中比 HREF 更早地預(yù)測風暴的開始以及風暴的起始位置,而 HREF 錯過了起始位置,但很好地捕捉到了生長階段。
準確記錄建筑足跡對于人口估計和城市規(guī)劃等一系列應(yīng)用至關(guān)重要。在世界許多地方,包括非洲大部分地區(qū),這些信息以前都是不可用的。
但新工作表明,將計算機視覺技術(shù)應(yīng)用于衛(wèi)星圖像可以幫助識別大陸尺度的建筑邊界。這種方法的相關(guān)結(jié)果已在 Open Buildings 數(shù)據(jù)集中發(fā)布,這是一個新的開放訪問數(shù)據(jù)資源,其中包含 5.16 億座建筑物的位置和足跡,覆蓋非洲大陸的大部分地區(qū)。
Jeff Dean 團隊還在與世界糧食計劃署的合作中使用這個數(shù)據(jù)集,通過應(yīng)用機器學習在自然災(zāi)害后提供快速的損害評估。
在衛(wèi)星圖像中分割建筑物的示例。左:源圖像;中:語義分割,每個像素都分配了一個置信度分數(shù),表明它是建筑物還是非建筑物;右圖:實例分割,通過對連接組件進行閾值化和分組獲得。
這些案例反映出的一個共同主題是,ML 模型能夠基于對可用視覺數(shù)據(jù)的分析,高效、準確地執(zhí)行專門的任務(wù),支持高度相關(guān)的下游任務(wù)。
自動化設(shè)計空間探索
另一種在多個領(lǐng)域取得成果的方法是,允許 ML 算法以自動化方式探索和評估問題的設(shè)計空間以尋找可能的解決方案。
比如在一個應(yīng)用程序中,基于 Transformer 的變分自動編碼器學習創(chuàng)建美觀且有用的文檔布局,并且可以擴展相同的方法來探索可能的家具布局。
另一種 ML 驅(qū)動的方法自動探索游戲規(guī)則的巨大設(shè)計空間,以提高游戲的可玩性和其他屬性,使人類游戲設(shè)計師能夠更快地創(chuàng)建令人愉快的游戲。
圖注:變分Transformer網(wǎng)絡(luò) (VTN) 模型的可視化,它能夠提取布局元素(段落、表格、圖像等)之間的有意義的關(guān)系,以生成逼真的合成文檔(例如,具有更好的對齊和邊距)。
其他 ML 算法已被用于評估 ML 加速器芯片本身的計算機架構(gòu)決策的設(shè)計空間。
谷歌還表明,ML 可用于為 ASIC 設(shè)計快速創(chuàng)建芯片布局,這些布局優(yōu)于人類專家生成的布局,并且可以在幾小時而不是幾周內(nèi)生成。這降低了芯片的固定工程成本,并降低了為不同應(yīng)用快速創(chuàng)建專用硬件的障礙。他們在即將推出的 TPU-v5 芯片的設(shè)計中成功地使用了這種方法。
這種探索性 ML 方法也已應(yīng)用于材料發(fā)現(xiàn)。在 Google Research 和加州理工學院的合作中,幾個 ML 模型與改進的噴墨打印機和定制的顯微鏡相結(jié)合,能夠快速搜索數(shù)十萬種可能的材料,發(fā)現(xiàn)了 51 種以前未表征的三金屬氧化物材料,在電池技術(shù)和水電解等領(lǐng)域具有應(yīng)用前景。
這些自動化的設(shè)計空間探索方法可以幫助加速許多科學領(lǐng)域,特別是當生成實驗和評估結(jié)果的整個實驗循環(huán)都可以以自動化或大部分自動化的方式完成時。Jeff Dean 表示,希望看到這種方法在未來幾年在更多領(lǐng)域中發(fā)揮良好的效果。
在健康領(lǐng)域的應(yīng)用
除了推進基礎(chǔ)科學,機器學習還可以更廣泛地推動醫(yī)學和人類健康的進步。
利用計算機科學在健康方面并不是什么新鮮事——事實上,谷歌早期就開發(fā)軟件來幫助分析流行病學數(shù)據(jù)。但是機器學習打開了新的大門,帶來了新的機會,也帶來了新的挑戰(zhàn)。
以基因組學領(lǐng)域為例。自基因組學問世以來,計算一直很重要,但 ML 增加了新功能并推翻了舊范式。當谷歌研究人員開始在這一領(lǐng)域工作時,許多專家認為使用深度學習幫助從測序儀輸出推斷遺傳變異的想法是牽強附會的。
今天,這種機器學習方法被認為是最先進的。但未來對于 ML 來說將扮演更重要的角色——基因組學公司正在開發(fā)更準確、更快的新測序儀器,但也帶來了新的推理挑戰(zhàn)。
谷歌發(fā)布的開源軟件 DeepConsensus 以及與 UCSC 合作的 PEPPER-DeepVariant 支持這些具有尖端信息學的新儀器。
圖注:DeepConsensus 的 Transformer 架構(gòu)示意圖,可糾正測序錯誤以提高產(chǎn)量和準確性。
除了處理測序儀數(shù)據(jù)之外,還有其他機會使用 ML 來加速研究人員將基因組信息用于個性化健康。廣泛表型和測序個體的大型生物庫可以徹底改變?nèi)藗兝斫夂凸芾砑膊∵z傳易感性的方式。
Jeff Dean 等人基于 ML 的表型分析方法提高了將大型成像和文本數(shù)據(jù)集轉(zhuǎn)換為可用于遺傳關(guān)聯(lián)研究的表型的可擴展性,他們的 DeepNull 方法更好地利用大型表型數(shù)據(jù)進行遺傳發(fā)現(xiàn),并且已經(jīng)開源。
圖注:生成解剖和疾病特征的大規(guī)模量化以與生物庫中的基因組數(shù)據(jù)相結(jié)合的過程。
正如 ML 幫助研究人員看到基因組數(shù)據(jù)的隱藏特征一樣,它也可以幫助發(fā)現(xiàn)新信息并從其他健康數(shù)據(jù)類型中收集新見解。疾病診斷通常是關(guān)于識別模式、量化相關(guān)性或識別更大類別的新實例——這些都是 ML 擅長的任務(wù)。
谷歌研究人員已經(jīng)使用 ML 解決了廣泛此類問題,但也許這些問題都沒有比 ML 在醫(yī)學成像中的應(yīng)用更進一步。
事實上,谷歌 2016 年的論文描述了深度學習在糖尿病性視網(wǎng)膜病變篩查中的應(yīng)用,被美國醫(yī)學會雜志 (JAMA) 的編輯選為十年來最具影響力的 10 篇論文之一——不僅僅是機器學習和健康方面最有影響力的論文,甚至是整個十年中最具影響力的 JAMA 論文。
Jeff Dean 表示,其團隊成員希望看到這種相同模式的輔助 ML 系統(tǒng)被部署用于改善乳腺癌篩查、檢測肺癌、加速癌癥放射治療、標記異常 X 射線和分期前列腺癌活檢。
ML 輔助結(jié)腸鏡檢查程序是更高階的有趣例子。結(jié)腸鏡檢查不僅用于診斷結(jié)腸癌——在手術(shù)過程中切除息肉是阻止疾病進展和預(yù)防嚴重疾病的重要部分。在這個領(lǐng)域,研究人員已經(jīng)證明 ML 可以幫助檢測難以捉摸的息肉,并且可以增加質(zhì)量保證的新維度,例如通過應(yīng)用同步定位和映射技術(shù)進行覆蓋映射。
通過與耶路撒冷的 Shaare Zedek 醫(yī)療中心合作,谷歌展示了這些系統(tǒng)可以實時工作,在每次手術(shù)中平均檢測到一個原本會被漏掉的息肉,每次手術(shù)的誤報少于四個。
圖注:胸部 X 光片 (CXR) 的真假陽性樣本,以及 (A) 一般異常、(B) 結(jié)核病和 (C) COVID-19 的真假陰性結(jié)果。在每個 CXR 上,紅色輪廓表示模型重點識別異常的區(qū)域(即類激活圖),黃色輪廓表示放射科醫(yī)生識別的感興趣區(qū)域。
另一個醫(yī)療保健計劃 Care Studio 使用最先進的 ML 和先進的 NLP 技術(shù)來分析結(jié)構(gòu)化數(shù)據(jù)和醫(yī)療記錄,在正確的時間向臨床醫(yī)生提供最相關(guān)的信息——最終幫助他們提供更主動和準確的護理。
盡管 ML 可能對擴大臨床環(huán)境的可及性和提高準確性很重要,但一個同樣重要的新趨勢正在出現(xiàn):ML 應(yīng)用于幫助人們提高日常健康和福祉。
我們的日常設(shè)備具有強大的傳感器,可以幫助使健康指標和信息民主化,以便人們可以就自己的健康做出更明智的決定。
智能手機攝像頭已經(jīng)可以評估心率和呼吸頻率以幫助用戶,而無需額外硬件的發(fā)布,以及支持非接觸式睡眠感應(yīng),并讓用戶更好地了解他們的夜間健康狀況的設(shè)備。
一方面,個人可以在自己的 ASR 系統(tǒng)中顯著提高無序語音的語音識別質(zhì)量,另一方面,還可以使用 ML 幫助重建有語音障礙的人的聲音。支持機器學習的智能手機甚至可以幫助人們更好地研究新出現(xiàn)的皮膚狀況或幫助視力有限的人慢跑。
圖注:用于非接觸式睡眠感應(yīng)的自定義 ML 模型有效地處理連續(xù)的 3D 雷達張量流(總結(jié)一系列距離、頻率和時間的活動),以自動計算用戶清醒或睡著的可能性的概率。
機器學習在氣候危機上的應(yīng)用
另一個最重要的領(lǐng)域是氣候變化,這對人類來說是一個極其緊迫的威脅。
因此,人們需要共同努力,扭轉(zhuǎn)有害排放物的增長曲線,以確保安全和繁榮的未來。關(guān)于不同選擇對氣候帶來的影響的信息可以幫助人類以多種不同方式應(yīng)對這一挑戰(zhàn)。
為此,谷歌最近在 Google 地圖中推出了環(huán)保路線推薦應(yīng)用,他們估計這將每年減少約 100 萬噸二氧化碳排放(相當于從道路上減少 200,000 多輛汽車)。
此外,讓地圖產(chǎn)品更智能地了解電動汽車有助于緩解里程焦慮,鼓勵人們改用無排放汽車。谷歌還與世界各地的多個城市合作,使用匯總的歷史交通數(shù)據(jù)來幫助改進交通信號燈時間設(shè)置,在以色列和巴西進行的一項早期試點研究表明,燃料消耗和延誤時間可以減少10-20%。
圖注:借助環(huán)保路線應(yīng)用,Google 地圖可以顯示快和省油的路線。
在更長的時間范圍內(nèi),聚變有望成為改變游戲規(guī)則的可再生能源。在與 TAE Technologies 的長期合作中,谷歌使用 ML 通過建議設(shè)置 1000 多個相關(guān)控制參數(shù)來幫助維持其聚變反應(yīng)堆中的穩(wěn)定等離子體。
通過他們的合作,TAE 實現(xiàn)了諾曼反應(yīng)堆的主要目標,這使研究人員離盈虧平衡聚變的目標更近了一步。該機器在 30 毫秒內(nèi)保持 3000 萬開爾文的穩(wěn)定等離子體,這是其系統(tǒng)可用功率的范圍。
谷歌也在關(guān)注自然災(zāi)害預(yù)防。去年,他們推出了由衛(wèi)星數(shù)據(jù)提供支持的野火邊界圖,以幫助人們直接通過設(shè)備輕松了解火災(zāi)的大致規(guī)模和位置。
在此基礎(chǔ)上,研究人員現(xiàn)在將谷歌的所有野火信息整合在一起,并在全球范圍內(nèi)推出谷歌地圖上的新圖層。他們一直在應(yīng)用圖形優(yōu)化算法來幫助優(yōu)化火災(zāi)疏散路線。
2021 年,谷歌首次在實際的洪水預(yù)警系統(tǒng)中部署了基于 LSTM 的預(yù)測模型和新的模型( Manifold inundation model)。
圖注:Google 地圖中的野火層可在緊急情況下為人們提供重要的最新信息。
ML 模型訓練的碳排放是 ML 社區(qū)關(guān)注的問題,谷歌已經(jīng)證明了關(guān)于模型架構(gòu)、數(shù)據(jù)中心和 ML 加速器類型的選擇可以將訓練的碳足跡減少約 100-1000 倍。
隨著機器學習被更廣泛地接受和應(yīng)用,繼續(xù)開發(fā)新技術(shù)可以推進機器學習更好地造福于社會。
基于在線產(chǎn)品中的用戶活動的推薦系統(tǒng)就是其中一個。通常推薦系統(tǒng)是由多個不同組件構(gòu)成的,想要理解它們的公平屬性,需要了解各個組件以及它們組合時的運行方式。
谷歌最新的研究提高了單個組件和整體推薦系統(tǒng)的公平性,幫助用戶更好地理解這些“關(guān)聯(lián)性”。而且,在從匿名用戶活動中學習時,推薦系統(tǒng)以“中立”的方式學習至是十分必要的。從先前用戶的數(shù)據(jù)中直接學習到的“經(jīng)驗”,可能帶有顯而易見的“偏見”。如果不糾正,那新用戶可能會頻繁收到不符合心意的產(chǎn)品推薦。
與推薦系統(tǒng)類似,上下文環(huán)境在機器翻譯中至關(guān)重要。大多數(shù)機器翻譯系統(tǒng)都是孤立地翻譯單個句子,沒參考額外的上下文內(nèi)容,無意間添加了性別、年齡等“歧視”屬性。谷歌去年公布了一個專門針對翻譯中性別偏見的數(shù)據(jù)集,用來研究基于維基百科傳記的翻譯偏見。
部署機器學習模型中另一個常見問題是分布偏移(distributional shift):如果訓練模型數(shù)據(jù)的統(tǒng)計分布與輸入模型數(shù)據(jù)的統(tǒng)計分布不同,可能造成模型產(chǎn)生的結(jié)果不可預(yù)測。
谷歌利用 Deep Bootstrap 框架對比有限訓練數(shù)據(jù)的現(xiàn)實世界與無限數(shù)據(jù)的“大同世界”。從而更好地理解模型的行為(真實中與理想中的世界),研究人員可以開發(fā)泛化性更強的模型,對固定訓練數(shù)據(jù)集減少“偏見”。
雖然機器學習算法和模型開發(fā)一直備受關(guān)注,但數(shù)據(jù)收集和數(shù)據(jù)集管理類的工作相對較少。毋庸置疑,它們是不可忽視的領(lǐng)域,因為訓練機器模型所依據(jù)的數(shù)據(jù)可能是下游應(yīng)用程序中公平性問題的潛在來源。分析機器學習中此類數(shù)據(jù)級聯(lián),將有助于識別項目周期中對結(jié)果產(chǎn)生重大影響的許多因素。
圖注:不同顏色的箭頭表示各種類型的數(shù)據(jù)級聯(lián),每個級聯(lián)通常起源于上游,在ML開發(fā)過程中復(fù)合,并在下游呈現(xiàn)。
更好地理解數(shù)據(jù)是機器學習研究的一個核心環(huán)節(jié)。谷歌開發(fā)了一類方法能夠深入了解特定訓練示例對機器學習模型的影響,因為錯誤標記的數(shù)據(jù)或其他類似問題對整體模型都有巨大負面影響。谷歌還構(gòu)建了Know Your Data 工具,用以幫助研究人員和從業(yè)者掌握數(shù)據(jù)集屬性,例如:如何使用 Know Your Data 工具來探索性別、年齡偏見等問題。
圖注:Know Your Data 的數(shù)據(jù)顯示了描述吸引力的詞與性別詞之間的關(guān)系
了解基準數(shù)據(jù)集使用的動態(tài)也十分必要,因為它們在機器學習領(lǐng)域的中發(fā)揮著核心作用。盡管對單個數(shù)據(jù)集的研究變得更為普及,但整個領(lǐng)域的數(shù)據(jù)集使用動態(tài)仍有神秘領(lǐng)域待探索。最近谷歌發(fā)表了第一個關(guān)于數(shù)據(jù)集創(chuàng)建、采用和重用動態(tài)的大規(guī)模實證分析。
創(chuàng)建更具包容性和更少偏見的公共數(shù)據(jù)集是可以改善機器學習領(lǐng)域的重要方法。2016 年,谷歌發(fā)布了 Open Images 數(shù)據(jù)集,該數(shù)據(jù)集包含約 900 萬張圖像,標注了涵蓋數(shù)千個對象類別的圖像標簽和 600 個類別的邊界框注釋。
去年,Jeff Dean團隊在 Open Images Extended 集合中引入了更具包容性的人物注釋 (MIAP) 數(shù)據(jù)集。它有更完整的人類邊界框注釋,像感知性別表示和感知年齡范圍等都標有更為公平的屬性。同時,研究人員還構(gòu)建了數(shù)據(jù)集搜索來幫助用戶發(fā)現(xiàn)新的數(shù)據(jù)集。
處理各種形式的在線濫用行為,例如有害言論、仇恨言論和錯誤信息等,能夠有效大規(guī)模檢測這類濫用形式,對確保平臺安全、避免通過以無人監(jiān)督的方式從在線話語中學習語言的此類負面特征的風險至關(guān)重要。
谷歌通過 Perspective API 工具進行了工作,但大規(guī)模檢測有害性所涉及的細微差別仍然是高難度挑戰(zhàn)。Jeff Dean等引入了全面分類法來推理在線仇恨和騷擾的言論變化局面。
他們同樣研究了如何檢測在網(wǎng)絡(luò)中常被忽略的隱蔽有害形式,例如微歧視(microaggression)。研究了如何用傳統(tǒng)方法處理數(shù)據(jù)注釋中的歧視,這些主觀概念會邊緣化少數(shù)人的觀點,并提出了一種新的基于多任務(wù)框架的分類建模方法。
其他的潛在問題是,機器學習語言理解和生成模型有時也會產(chǎn)生缺少證據(jù)支持的結(jié)果。為了在問答、總結(jié)和對話中解決這個問題,谷歌開發(fā)了一個新框架衡量結(jié)果是否可以歸因于特定來源,并隨后發(fā)布了注釋指南,證明能夠可靠地用于評估候選模型。
模型交互式分析和調(diào)試仍然是機器學習的關(guān)鍵。谷歌更新了語言可解釋性工具,用新功能和技術(shù)推進這項工作,包括對圖像和表格數(shù)據(jù)的支持,以及內(nèi)置支持通過概念激活向量測試技術(shù)進行公平性分析等。
機器學習系統(tǒng)的可解釋性和對模型決策過程的事后可重建性也是谷歌負責任的AI 愿景的關(guān)鍵部分。通過與 DeepMind 合作,研究人員在理解人類國際象棋概念在自對弈訓練的 AlphaZero 國際象棋系統(tǒng)中的獲取上取得了進展。
圖注:探索 AlphaZero 學習到的國際象棋概念。
谷歌也在將人工智能的視野拓寬到西方背景之外。他們最近的研究檢驗了基于西方機構(gòu)和基礎(chǔ)設(shè)施的傳統(tǒng)算法公平框架的假設(shè)為何在非西方背景下不適應(yīng)。
他們正在多個國家積極開展調(diào)查研究,以了解人們對人工智能的看法和偏好。西方對算法公平性研究的框架往往只關(guān)注少數(shù)幾個屬性,因此關(guān)于非西方背景的偏見在很大程度上被忽視,在經(jīng)驗上研究不足。
為了解決這一問題,谷歌與密歇根大學合作,開發(fā)了一種弱監(jiān)督方法,在 NLP 模型中穩(wěn)健地檢測更廣泛的地理文化背景中的詞匯偏差,這些模型反映了人類在這些區(qū)域中對攻擊性和非攻擊性語言的判斷。
此外,他們還探索了 ML在南半球主導的環(huán)境中的應(yīng)用,包括為以農(nóng)戶為中心的機器學習研究提出建議。
基于社區(qū)的研究方法,也為谷歌設(shè)計數(shù)字福祉和解決機器學習系統(tǒng)中的種族平等問題提供了依據(jù),包括提高對非裔美國人使用 ASR 系統(tǒng)體驗的理解。
隨著ML模型在許多領(lǐng)域的應(yīng)用,私有信息的保護一直是研究的重點。沿著這些思路,谷歌最新研究解決了大型模型中的隱私問題,既強調(diào)了從大型模型中提取訓練數(shù)據(jù),也指出了在大型模型中實現(xiàn)隱私的方法,例如差分私有BERT。
除了上面提到的聯(lián)邦學習和分析方面的工作之外,使用實用的機器學習技術(shù)從而增強研究人員的工具箱,確保差分隱私,比如私有聚類、私有個性化、私有矩陣完成、私有加權(quán)采樣、私有分位數(shù)、半空間的私有魯棒學習,以及普遍樣本高效的私有 PAC 學習,還有擴展可針對不同應(yīng)用程序和模型定制的隱私概念集,像標簽隱私和用戶與項目級別的隱私。
圖注:差分私有聚類算法的可視化圖示。
研究通常是對現(xiàn)實世界產(chǎn)生影響的長期歷程。幾年前發(fā)生的早期研究工作現(xiàn)在對谷歌乃至全世界都產(chǎn)生了巨大的影響。
對ML 硬件加速器以及軟件框架的投資已取得成果。ML 模型在許多不同產(chǎn)品和功能中越來越普遍,因為它們的強大功能和易于表達的特點簡化了 ML 模型在性能關(guān)鍵環(huán)境中的實驗和生產(chǎn)。
對創(chuàng)建 Seq2Seq、Inception、EfficientNet 和 Transformer 的模型架構(gòu)的研究或批歸一化和蒸餾等算法研究正在推動語言理解、視覺、語音等領(lǐng)域的進步。
更好的語言和視覺理解以及語音識別等基本功能或許將具有變革性,因此,這些類型的模型被廣泛部署用于解決許多產(chǎn)品中的各種問題,包括搜索、助理、廣告、云、郵箱、地圖、視頻、和翻譯等等。
這些是機器學習和計算機科學真正激動人心的時刻。計算機通過語言、視覺和聲音理解和與周圍世界互動的能力不斷提高,這為計算機如何幫助人們完成任意的任務(wù)開辟了全新的領(lǐng)域。這篇文章概述的五個趨勢中談到的示例將是這個長期歷程中的路標!
原文鏈接:https://ai.googleblog.com/2022/01/google-research-themes-from-2021-and.html
2022-01-03
2021-12-19
2021-10-29
雷峰網(wǎng)(公眾號:雷峰網(wǎng))
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。