0
本文作者: skura | 2019-01-17 10:15 |
雷鋒網(wǎng) AI 科技評(píng)論按,2019 年 1 月 15 日,谷歌高級(jí)研究員 Jeff Dean 和谷歌人工智能主管代表整個(gè)谷歌研究社區(qū)發(fā)布了 2018 年 AI 年度總結(jié),本文是年度總結(jié)的下篇。本文主要總結(jié)了AutoML、TPUs、
開(kāi)源軟件與數(shù)據(jù)集和機(jī)器人學(xué)等技術(shù)和應(yīng)用進(jìn)行了總結(jié),并對(duì) 2019 年進(jìn)行了展望。雷鋒網(wǎng) AI 科技評(píng)論編譯整理如下:
谷歌在 2018 年在下面這些方面也有所進(jìn)展:
AutoML
AutoML 也被稱作「元學(xué)習(xí)」,主要通過(guò)機(jī)器學(xué)習(xí)方式讓機(jī)器學(xué)習(xí)的某些方面實(shí)現(xiàn)「自動(dòng)化」。多年來(lái)我們一直在該領(lǐng)域進(jìn)行研究,目標(biāo)是開(kāi)發(fā)出一個(gè)懂得借鑒過(guò)往積累的見(jiàn)解與能力,進(jìn)而自動(dòng)發(fā)現(xiàn)并解決新問(wèn)題的系統(tǒng)。早期我們使用得最多的是強(qiáng)化學(xué)習(xí),如今我們也將目光鎖定在了進(jìn)化算法上。去年,我們向大家展示了如何通過(guò)進(jìn)化算法為視覺(jué)任務(wù)自動(dòng)發(fā)掘最先進(jìn)的神經(jīng)網(wǎng)絡(luò)架構(gòu)。此外,我們也探索了強(qiáng)化學(xué)習(xí)在神經(jīng)網(wǎng)絡(luò)架構(gòu)檢索以外的更多作用,最后成功證明可用于下列問(wèn)題的解決上:
1)自動(dòng)生成圖像變換序列,提高各種圖像模型的準(zhǔn)確性;
2)找到一種全新的符號(hào)優(yōu)化表達(dá)形式,比起常用的優(yōu)化規(guī)則效果更好。
我們?cè)?AdaNet 的工作展示了如何創(chuàng)建一個(gè)學(xué)習(xí)效果有保障、使用上快速靈活的 AutoML 算法。
AdaNet 自適應(yīng)地增強(qiáng)了神經(jīng)網(wǎng)絡(luò)的集成。它在每次迭代的過(guò)程中計(jì)算每個(gè)候選者的集合損失,再?gòu)闹刑暨x最優(yōu)秀的候選者進(jìn)入下一輪迭代。
我們另外一項(xiàng)工作重點(diǎn)是自動(dòng)發(fā)掘計(jì)算效率最高的神經(jīng)網(wǎng)絡(luò)架構(gòu),以便它們能在一些計(jì)算資源和推理時(shí)間有限的環(huán)境中(如移動(dòng)電話、自動(dòng)駕駛車輛等)運(yùn)行。為此,我們證明只要在強(qiáng)化學(xué)習(xí)架構(gòu)搜索的獎(jiǎng)勵(lì)函數(shù)中把模型的準(zhǔn)確率與推理時(shí)間進(jìn)行結(jié)合,就能找到既滿足高度準(zhǔn)確性又符合特定性能約束的模型。此外,我們還探索了如何通過(guò) ML 來(lái)學(xué)習(xí)自動(dòng)壓縮 ML 模型,以更少的調(diào)試參數(shù)和計(jì)算資源消耗的方式。
TPUs
Tensor Processing Units (TPUs) 是谷歌內(nèi)部自主研發(fā)的 ML 硬件加速器,最開(kāi)始的設(shè)計(jì)初衷就是為了用于大規(guī)模的訓(xùn)練與推理上。TPUs 讓谷歌的許多研究得以實(shí)現(xiàn)突破,比如廣為人知的 BERT(前文提過(guò)),此外,通過(guò)開(kāi)源的方式,它能讓世界各地的研究人員對(duì)谷歌的研究進(jìn)行拓展并實(shí)現(xiàn)突破。最典型的例子,任何人都可以通過(guò) Colab 免費(fèi)在 TPUs 上對(duì) BERT 進(jìn)行微調(diào),這里要提一下 TensorFlow Research Cloud,它使數(shù)以千計(jì)的研究人員得以從大體量的免費(fèi)云 TPU 供給的計(jì)算能力中受惠。此外,我們還將多代 TPU 硬件作為商用云 TPUs 對(duì)外出售,其中包括被稱作 Cloud TPU Pod 的 ML 超級(jí)計(jì)算機(jī),這使大規(guī)模的 ML 訓(xùn)練服務(wù)變得觸手可及。僅就谷歌內(nèi)部而言,除了讓 ML 研究取得快速進(jìn)步,TPUs 還推動(dòng)了谷歌核心產(chǎn)品的重大改進(jìn),其中包括谷歌檢索、YouTube、Gmail、Google 智能助理和谷歌翻譯等。我們期待看到來(lái)自谷歌內(nèi)部和其他地方的 ML 團(tuán)隊(duì)可以通過(guò) TPUs,以其前所未有的計(jì)算規(guī)模在 ML 領(lǐng)域取得更多突破。
單個(gè) TPU v3 設(shè)備(左)與 TPU v3 Pod 的部分部件展示(右)。TPU v3 是谷歌最新一代的 Tensor Processing Unit(TPU)硬件。它以云 TPU v3 的形式對(duì)外出售,采用液體冷卻技術(shù)以獲得最佳性能(計(jì)算機(jī)芯片 + 液體 = 太有意思了?。?,而完整的 TPU v3 Pod 將可以為全球最大的 ML 任務(wù)提供高達(dá) 100 petaflops 的計(jì)算能力。
開(kāi)源軟件與數(shù)據(jù)集
發(fā)布開(kāi)源軟件與創(chuàng)建全新的公共數(shù)據(jù)集,是我們?yōu)檐浖こ萄芯可鐓^(qū)做貢獻(xiàn)的最主要兩種方式。這方面我們最大的貢獻(xiàn)之一要屬 TensorFlow,這是一款發(fā)布于 2015 年 11 月的 ML 計(jì)算系統(tǒng),這些年來(lái)倍受歡迎。2018 年我們剛為 TensorFlow 慶祝完第 3 個(gè)生日,這期間 TensorFlow 已經(jīng)被被下載超過(guò) 3000 萬(wàn)次,且有超過(guò) 1700 名的貢獻(xiàn)者添加了 45 000 次的 commits。我們?cè)?2018 年為 TensorFlow 更新了 8 個(gè)主要版本,增加了動(dòng)態(tài)圖機(jī)制和分發(fā)策略等主要功能。在研發(fā)過(guò)程中,我們啟動(dòng)了吸引社區(qū)注意力的公眾設(shè)計(jì)評(píng)審活動(dòng),通過(guò)組建特殊興趣小組留住貢獻(xiàn)者。隨著 TensorFlow Lite、TensorFlow.js 和 TensorFlow Probability 等產(chǎn)品的相繼推出,TensorFlow 生態(tài)系統(tǒng)也在 2018 年迎來(lái)了大幅增長(zhǎng)。
我們很高興得知 TensorFlow 作為頂級(jí)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)框架在 Github 上擁有強(qiáng)大的號(hào)召力。TensorFlow 團(tuán)隊(duì)也一直致力于實(shí)現(xiàn)快速解決 Github 上存在的問(wèn)題,為外部貢獻(xiàn)者提供更順暢的操作通道。根據(jù)谷歌學(xué)術(shù)檢索,我們已公開(kāi)發(fā)表的論文持續(xù)為全世界的大部分機(jī)器學(xué)習(xí)和深度學(xué)習(xí)研究提供了有效支持。TensorFlow Lite 僅推出 1 年,便在全球超過(guò) 15 億的設(shè)備上獲得使用;成為 JavaScript 使用排名第一的 ML 框架;同時(shí)在對(duì)外放出的短短 9 個(gè)月內(nèi),已在 Github 獲得超過(guò) 2 百萬(wàn)次的內(nèi)容分發(fā)網(wǎng)絡(luò)(CDN)點(diǎn)擊量、20.5 萬(wàn)次下載量以及超過(guò) 1 萬(wàn)次的星星點(diǎn)亮。
除了繼續(xù)耕耘現(xiàn)有的開(kāi)源生態(tài)系統(tǒng),2018 年我們還做了以下事情:
引入一個(gè)用于靈活、可再現(xiàn)強(qiáng)化學(xué)習(xí)的全新框架
https://ai.googleblog.com/2018/08/introducing-new-framework-for-flexible.html
引入一個(gè)可以快速習(xí)得數(shù)據(jù)集特征的可視化工具(無(wú)需編寫任何代碼)
https://ai.googleblog.com/2018/09/the-what-if-tool-code-free-probing-of.html
增加一個(gè)涉及 learning-to-rank 算法(以最大化整個(gè)列表效用的方式對(duì)項(xiàng)目列表進(jìn)行排序的過(guò)程,適用于包括搜索引擎、推薦系統(tǒng)、機(jī)器翻譯、對(duì)話系統(tǒng)甚至是計(jì)算生物學(xué)等領(lǐng)域)的高級(jí)機(jī)器學(xué)習(xí)問(wèn)題庫(kù)
http://ai.googleblog.com/2018/12/tf-ranking-scalable-tensorflow-library.html
發(fā)布一個(gè)快速、靈活的 AutoML 解決方案框架
發(fā)布一個(gè)通過(guò) TensorFlow.js 執(zhí)行瀏覽器實(shí)時(shí) t-SNE 可視化工作的庫(kù)
增加用于處理電子醫(yī)療數(shù)據(jù)(會(huì)在本文醫(yī)療保障環(huán)節(jié)提到)的 FHIR 工具 & 軟件
針對(duì)完整 MNIST 數(shù)據(jù)集的 tSNE 嵌入實(shí)時(shí)演變過(guò)程。該數(shù)據(jù)集包含 60,000 個(gè)手寫數(shù)字圖像?,F(xiàn)場(chǎng)演示請(qǐng)點(diǎn)擊:https://nicola17.github.io/tfjs-tsne-demo/
公共數(shù)據(jù)集是觸發(fā)靈感的絕佳來(lái)源,可帶領(lǐng)許多領(lǐng)域取得重大進(jìn)步,因?yàn)楣矓?shù)據(jù)集能夠?yàn)樯鐓^(qū)帶來(lái)有趣的數(shù)據(jù)和問(wèn)題,并在許多任務(wù)的解決上形成有益的競(jìng)爭(zhēng)氛圍。今年我們很高興能夠發(fā)布谷歌數(shù)據(jù)集檢索工具(Google Dataset Search),這是一款可以讓我們從各個(gè)網(wǎng)絡(luò)渠道查找想要的公共數(shù)據(jù)集的全新工具。從數(shù)百萬(wàn)的通用注釋圖像或視頻數(shù)據(jù)集、到用于語(yǔ)音識(shí)別的孟加拉人群源數(shù)據(jù)集、再到機(jī)器人手臂抓取數(shù)據(jù)集,這些年我們策劃并發(fā)布了多個(gè)嶄新數(shù)據(jù)集,即使在 2018 年,數(shù)據(jù)集的清單也還在不斷增加中。
通過(guò) Crowdsource 軟件添加到 Open Images Extended 的圖片(源自印度 & 新加坡)
我們還發(fā)布了 Open Images V4,這是一個(gè)包含 15.4 M 基于 600 種類別多達(dá) 1.9 M 圖像的邊框數(shù)據(jù)以及 30.1 M 源自 19,794 種類別的人工驗(yàn)證圖像級(jí)標(biāo)簽的數(shù)據(jù)集。我們通過(guò) crowdsource.google.com 為數(shù)據(jù)集添加了 5.5M 由世界各地?cái)?shù)百萬(wàn)用戶提供的生成注釋數(shù)據(jù),有效豐富了數(shù)據(jù)集在人和場(chǎng)景方面的多樣性。我們還發(fā)布了具備視頻視聽(tīng)注解功能的 Atomic Visual Actions (AVA) 數(shù)據(jù)集,可以有效提升機(jī)器理解視頻中人類的行為與語(yǔ)言的能力。此外,我們還官宣了最新的 YouTube-8M 挑戰(zhàn)賽和第二屆 YouTube-8M Large-Scale Video 理解挑戰(zhàn)賽與 Workshop。其他發(fā)布的數(shù)據(jù)集,如 HDR + Burst Photography 旨在為計(jì)算攝影領(lǐng)域的各種研究提供幫助;Google-Landmarks 是一個(gè)作用于地標(biāo)識(shí)別的全新數(shù)據(jù)集。除了發(fā)布數(shù)據(jù)集,我們還探索了相關(guān)的一些新技術(shù),比如 Fluid Annotation 可以讓我們快速創(chuàng)建可視化數(shù)據(jù)集,通過(guò)一種探索性的 ML 驅(qū)動(dòng)接口實(shí)現(xiàn)更快的圖像注釋行為。
Fluid Annotation 基于 COCO dataset 圖像的可視化效果。圖片來(lái)源:gamene,原始圖片。
我們時(shí)不時(shí)還會(huì)給研究界樹(shù)立新挑戰(zhàn),以便聚合大家一同來(lái)解決棘手的研究問(wèn)題。一般來(lái)說(shuō),我們會(huì)通過(guò)發(fā)布新的數(shù)據(jù)集來(lái)達(dá)到這個(gè)目的,但也有例外的時(shí)候。比如今年,我們就圍繞包容性圖像挑戰(zhàn)賽制定了全新的挑戰(zhàn),致力于創(chuàng)造免除偏見(jiàn)、更具魯棒性的模型;iNaturalist 2018 挑戰(zhàn)賽旨在讓計(jì)算機(jī)得以細(xì)致區(qū)分物體的類別(如圖像中的植物種類);在 Kaggle 上發(fā)起的 "Quick, Draw!" Doodle Recognition 挑戰(zhàn)賽試圖為 QuickDraw 游戲創(chuàng)建更好的分類器;還有 Conceptual Captions 作為大規(guī)模的圖像字幕數(shù)據(jù)集挑戰(zhàn)賽,旨在推動(dòng)更好的圖像字幕模型研究。
機(jī)器人學(xué)
2018 年,我們?cè)诶斫鈾C(jī)器學(xué)習(xí)如何教機(jī)器人行動(dòng)這個(gè)目標(biāo)方面取得了重大進(jìn)展,在教機(jī)器人掌握新事物的能力方面達(dá)到了新的里程碑(2018 年 CORL 的最佳系統(tǒng)論文)。我們還通過(guò)結(jié)合機(jī)器學(xué)習(xí)和基于采樣的方法(2018 年 ICRA 的最佳服務(wù)機(jī)器人論文)以及研究機(jī)器人的幾何構(gòu)造,在機(jī)器人運(yùn)動(dòng)學(xué)習(xí)方面取得了進(jìn)展。我們?cè)跈C(jī)器人通過(guò)自主觀察更好地感知世界結(jié)構(gòu)這一能力上取得了很大的進(jìn)步。我們第一次成功地在真正的機(jī)器人上在線訓(xùn)練了深層強(qiáng)化學(xué)習(xí)模型,并且正在尋找新的理論方法,學(xué)習(xí)控制機(jī)器人的穩(wěn)定方法。
人工智能在其他領(lǐng)域的應(yīng)用
2018 年,我們將深度學(xué)習(xí)應(yīng)用于物理和生物科學(xué)的一系列問(wèn)題中。使用深度學(xué)習(xí),我們可以為科學(xué)家提供相當(dāng)于數(shù)以百計(jì)的挖掘數(shù)據(jù)研究助理,從而提高他們的創(chuàng)造力和生產(chǎn)力。
我們關(guān)于神經(jīng)元高精度自動(dòng)重建的論文提出了一個(gè)新的模型,與以前的深度學(xué)習(xí)技術(shù)相比,它將連接體數(shù)據(jù)(connectomics data)自動(dòng)解釋的準(zhǔn)確性提高了一個(gè)數(shù)量級(jí)。
圖為我們的算法正在跟蹤鳴禽大腦中的一個(gè)神經(jīng)突觸
將機(jī)器學(xué)習(xí)應(yīng)用于科學(xué)的其他一些示例有:
通過(guò)對(duì)恒星的光曲線數(shù)據(jù)進(jìn)行挖掘,發(fā)現(xiàn)太陽(yáng)系外的新行星
識(shí)別短 DNA 序列的起源或功能
自動(dòng)檢測(cè)離焦顯微鏡圖像
用數(shù)字技術(shù)構(gòu)建同一個(gè)細(xì)胞帶有污點(diǎn)的圖像
自動(dòng)繪制肽鏈的質(zhì)譜分析圖
在 Fiji(圖像 J)里面,一個(gè) TensorFlow 模型對(duì)顯微鏡細(xì)胞拼接圖像的聚焦質(zhì)量進(jìn)行了評(píng)估。邊界的色調(diào)表示預(yù)測(cè)的焦點(diǎn)質(zhì)量,邊界亮度表示預(yù)測(cè)的不確定性。
健康
在過(guò)去的幾年中,我們一直在將機(jī)器學(xué)習(xí)應(yīng)用于健康領(lǐng)域,這一領(lǐng)域影響著我們每一個(gè)人,我們相信通過(guò)機(jī)器學(xué)習(xí)可以增強(qiáng)專業(yè)醫(yī)療人員的直覺(jué)和經(jīng)驗(yàn),從而為醫(yī)療領(lǐng)域帶來(lái)巨大的改變。我們一般會(huì)與醫(yī)療保健組織合作,解決基礎(chǔ)研究問(wèn)題(利用臨床專家的反饋使我們的結(jié)果更加可信),然后將結(jié)果發(fā)表在權(quán)威的同行評(píng)審的科學(xué)和臨床期刊上。一旦研究得到臨床和科學(xué)驗(yàn)證,我們就進(jìn)行用戶和 HCI 研究,以了解在現(xiàn)實(shí)的臨床環(huán)境中如何部署它。2018 年,我們將臨床任務(wù)預(yù)測(cè)也納入了計(jì)算機(jī)輔助診斷的領(lǐng)域。
在 2016 年底,我們發(fā)表的研究表明,在一項(xiàng)回顧性研究中,接受過(guò)糖尿病視網(wǎng)膜病變體征視網(wǎng)膜底圖像評(píng)估訓(xùn)練的模型在這項(xiàng)任務(wù)中的表現(xiàn)比美國(guó)醫(yī)學(xué)委員會(huì)認(rèn)證的眼科醫(yī)師略好。2018 年,我們能夠證明,通過(guò)讓視網(wǎng)膜專家對(duì)培訓(xùn)圖像進(jìn)行標(biāo)記,并使用一個(gè)判定方案(在該方案中,多個(gè)視網(wǎng)膜專家聚集在一起,對(duì)每個(gè)眼底圖像進(jìn)行一次單獨(dú)的集體評(píng)估),我們可以得出一個(gè)與視網(wǎng)膜專家相當(dāng)?shù)哪P汀:髞?lái),我們發(fā)表了一份評(píng)估報(bào)告,展示了眼科醫(yī)生如何利用這種機(jī)器學(xué)習(xí)模型,使他們做出比單獨(dú)做出比不使用機(jī)器學(xué)習(xí)時(shí)更準(zhǔn)確的決定。我們已經(jīng)在印度的 Aravind 眼科醫(yī)院和泰國(guó)衛(wèi)生部附屬的 Rajavithi 醫(yī)院等 10 多個(gè)地點(diǎn)與我們 Alphabet 的同事合作,共同部署了這種糖尿病視網(wǎng)膜病變檢測(cè)系統(tǒng)。
左側(cè)是一張視網(wǎng)膜眼底圖像,被眼科專家評(píng)審小組評(píng)定為中度 DR(「MO」)。右上角是模型預(yù)測(cè)得分的圖示(「N」=無(wú) DR,「MI」=輕度 DR,「MO」=中度 DR)。右下角是醫(yī)生在沒(méi)有幫助的情況下給出的一組分?jǐn)?shù)。
我們還發(fā)表了一個(gè)機(jī)器學(xué)習(xí)模型的研究,這個(gè)模型可以通過(guò)視網(wǎng)膜圖像評(píng)估心血管病患病風(fēng)險(xiǎn)。這是一種新型的無(wú)創(chuàng)生物標(biāo)記方法,它可以幫助臨床醫(yī)生更好地了解患者的健康狀況。
我們今年還繼續(xù)關(guān)注病理學(xué),展示了如何使用機(jī)器學(xué)習(xí)改善前列腺癌的分級(jí),通過(guò)深度學(xué)習(xí)來(lái)檢測(cè)轉(zhuǎn)移性乳腺癌,并開(kāi)發(fā)了一個(gè)增強(qiáng)現(xiàn)實(shí)顯微鏡的原型,它可以通過(guò)將從計(jì)算機(jī)視覺(jué)模型中獲得的視覺(jué)信息實(shí)時(shí)疊加到顯微鏡學(xué)家的視野中,輔助病理學(xué)家和其他科學(xué)家的工作。
在過(guò)去的四年中,我們?cè)诶秒娮咏】涤涗洈?shù)據(jù)進(jìn)行深度學(xué)習(xí),從而做出臨床相關(guān)預(yù)測(cè)方面做了大量的研究工作。2018 年,我們與芝加哥大學(xué)醫(yī)學(xué)院、加州大學(xué)舊金山分校和斯坦福大學(xué)醫(yī)學(xué)院合作,并將研究成果發(fā)表在《自然數(shù)字醫(yī)學(xué)》雜志上。我們的研究是關(guān)于如何將機(jī)器學(xué)習(xí)模型應(yīng)用于未識(shí)別的電子病歷中,與當(dāng)前的最佳臨床實(shí)踐相比,它可以對(duì)各種臨床相關(guān)任務(wù)做出更準(zhǔn)確的預(yù)測(cè)。作為這項(xiàng)工作的一部分,我們開(kāi)發(fā)了一些工具,使得在人物差異很大,底層 EHR 數(shù)據(jù)集也非常不同的情況下,創(chuàng)建這些模型變得更加容易。我們開(kāi)發(fā)了快速醫(yī)療保健協(xié)作資源(Fast Healthcare Interoperability Resources (FHIR))標(biāo)準(zhǔn)相關(guān)的開(kāi)源軟件,以幫助更容易和更標(biāo)準(zhǔn)化地處理醫(yī)療數(shù)據(jù)(請(qǐng)參閱此 Github 代碼庫(kù))。最近,團(tuán)隊(duì)與合作伙伴共同努力,在《Nature Biotechnology》上發(fā)表了同行評(píng)議論文。
在將機(jī)器學(xué)習(xí)應(yīng)用于歷史收集的數(shù)據(jù)時(shí),重要的是要了解過(guò)去經(jīng)歷過(guò)人類結(jié)構(gòu)偏差的人群,以及這些偏差是如何在數(shù)據(jù)中編碼的。機(jī)器學(xué)習(xí)提供了一個(gè)機(jī)會(huì)來(lái)檢測(cè)和解決偏見(jiàn),并積極推進(jìn)健康公平,這也正是我們正在努力推進(jìn)的一個(gè)方面。
研究推廣
我們采用了許多不同的方式與外部研究團(tuán)體互動(dòng),包括教師參與和學(xué)生支持。我們很榮幸接收數(shù)百名本科生、碩士和博士生作為實(shí)習(xí)生,并為北美、歐洲和中東地區(qū)的學(xué)生提供多年的博士獎(jiǎng)學(xué)金。除了財(cái)政支持,每個(gè)獎(jiǎng)學(xué)金獲得者都被指派一個(gè)或多個(gè)谷歌研究人員作為導(dǎo)師,我們召集所有的研究員參加一年一度的谷歌博士獎(jiǎng)學(xué)金峰會(huì),在那里他們可以接觸到谷歌正在進(jìn)行的最先進(jìn)的研究,并有機(jī)會(huì)與谷歌的研究人員以及其他來(lái)自世界各地的博士生建立聯(lián)系??梢圆榭匆曨l:https://youtu.be/7RcUokN_eCg。
Google AI 實(shí)習(xí)生服務(wù)是這項(xiàng)獎(jiǎng)學(xué)金計(jì)劃的補(bǔ)充,它的形式是,讓想要學(xué)習(xí)進(jìn)行深度學(xué)習(xí)研究的人花一年時(shí)間與 Google 的研究人員一起工作并接受指導(dǎo)。2018 年是這項(xiàng)服務(wù)的第三年,全球的谷歌員工都加入了不同的團(tuán)隊(duì),從事機(jī)器學(xué)習(xí)、感知、算法和優(yōu)化、語(yǔ)言理解、醫(yī)療保健等領(lǐng)域的研究。目前該項(xiàng)目第四年的申請(qǐng)已經(jīng)結(jié)束,我們很期待看到研究人員在 2019 年將進(jìn)行的研究。
每年,我們還通過(guò)我們的 Google Faculty Research Awards 計(jì)劃為一些研究項(xiàng)目的教員和學(xué)生提供支持。2018 年,我們還繼續(xù)在谷歌(Google)為特定領(lǐng)域的教職員工和學(xué)生舉辦研討會(huì),包括在印度班加羅爾辦事處舉辦的人工智能/機(jī)器學(xué)習(xí)研究與實(shí)踐研討會(huì)、在蘇黎世辦事處舉辦的算法與優(yōu)化研討會(huì)、在桑尼維爾舉辦的機(jī)器學(xué)習(xí)醫(yī)療保健應(yīng)用研討會(huì)、在劍橋舉辦了關(guān)于公平與偏見(jiàn)的研討會(huì)。
我們認(rèn)為,公開(kāi)向?qū)V泛的研究群體作出貢獻(xiàn)是支持健康、高效的研究環(huán)境的關(guān)鍵部分。除了開(kāi)放源代碼和發(fā)布數(shù)據(jù)集之外,我們的大部分研究成果都在頂級(jí)會(huì)議和期刊上公開(kāi)發(fā)布,我們還積極參與各種不同學(xué)科范圍的會(huì)議組織和贊助。我們參與了 ICLR 2018、NAACL 2018、ICML 2018、CVPR 2018、NEURIPS 2018、ECCV 2018 和 EMNLP 2018。同時(shí),2018 年谷歌還廣泛參與了 ASPLOS、HPCA、ICSE、IEEE Security & Privacy、OSDI、SIGCOMM 等會(huì)議。
新地方,新面孔
2018 年,我們很高興地迎來(lái)了許多具有不同背景的新人加入我們的研究機(jī)構(gòu)。我們宣布成立在非洲的第一個(gè)人工智能研究實(shí)驗(yàn)室,它位于加納共和國(guó)的首都阿克拉。我們擴(kuò)大了在巴黎、東京和阿姆斯特丹的人工智能實(shí)驗(yàn)室規(guī)模,并在普林斯頓開(kāi)設(shè)了一個(gè)研究實(shí)驗(yàn)室。我們將繼續(xù)在全球各地的辦公室招聘人才,您可以了解更多有關(guān)加入我們的信息。
展望 2019 年
這篇博文只總結(jié)了 2018 年我們進(jìn)行的研究的一小部分?;仡?2018 年,我們?yōu)槲覀兯〉贸删偷膹V度和深度感到興奮和自豪。2019 年,我們期待對(duì)谷歌的方向和產(chǎn)品產(chǎn)生更大的影響,也期待著對(duì)更廣泛的研究和工程界產(chǎn)生更大的影響!
via:https://ai.googleblog.com/2019/01/looking-back-at-googles-research.html
雷鋒網(wǎng)
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。