丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能 正文
發(fā)私信給AI研習(xí)社-譯站
發(fā)送

0

AutoML:無(wú)人駕駛機(jī)器學(xué)習(xí)模型設(shè)計(jì)自動(dòng)化

本文作者: AI研習(xí)社-譯站 2019-03-11 10:40
導(dǎo)語(yǔ):為了將我們的自動(dòng)駕駛技術(shù)帶到不同的城市和環(huán)境,我們需要以極快的速度優(yōu)化我們的模型以適應(yīng)不同的場(chǎng)景。

AutoML:無(wú)人駕駛機(jī)器學(xué)習(xí)模型設(shè)計(jì)自動(dòng)化

本文為 AI 研習(xí)社編譯的技術(shù)博客,原標(biāo)題 :

AutoML: Automating the design of machine learning models for autonomous driving

作者 | Waymo TeamFollow

翻譯 | ciky奇、Ophria、謝玄xx           

校對(duì) | 鄧普斯?杰弗        審核 | 醬番梨       整理 | 立魚(yú)王

原文鏈接:

https://medium.com/waymo/automl-automating-the-design-of-machine-learning-models-for-autonomous-driving-141a5583ec2a

作者: Shuyang Cheng and Gabriel Bender*

在Waymo,機(jī)器學(xué)習(xí)幾乎在自動(dòng)駕駛系統(tǒng)的每個(gè)部分都起著關(guān)鍵作用。它可以讓汽車(chē)看到周?chē)h(huán)境,感知和了解世界,預(yù)測(cè)其他人的行為方式,并決定他們的下一步行動(dòng)。
感知:我們的系統(tǒng)采用神經(jīng)網(wǎng)絡(luò)的組合,以便我們的車(chē)輛能夠識(shí)別傳感器數(shù)據(jù)、識(shí)別物體并隨著時(shí)間的推移跟蹤它們,以便它能夠深入了解周?chē)氖澜?。這些神經(jīng)網(wǎng)絡(luò)的構(gòu)建通常是一項(xiàng)耗時(shí)的任務(wù);優(yōu)化神經(jīng)網(wǎng)絡(luò)架構(gòu)以實(shí)現(xiàn)在自動(dòng)駕駛汽車(chē)上運(yùn)行所需的質(zhì)量和速度是一個(gè)復(fù)雜的微調(diào)過(guò)程,我們的工程師要完成一項(xiàng)新任務(wù)可能要花費(fèi)數(shù)月時(shí)間。
現(xiàn)在,通過(guò)與Brain團(tuán)隊(duì)的谷歌AI研究人員合作,我們將前沿研究付諸實(shí)踐,用來(lái)自動(dòng)生成神經(jīng)網(wǎng)絡(luò)。更重要的是,這些最先進(jìn)的神經(jīng)網(wǎng)絡(luò)比工程師手動(dòng)微調(diào)的質(zhì)量更高,速度更快。
為了將我們的自動(dòng)駕駛技術(shù)帶到不同的城市和環(huán)境,我們需要以極快的速度優(yōu)化我們的模型以適應(yīng)不同的場(chǎng)景。AutoML使我們能夠做到這一點(diǎn),高效,持續(xù)地提供大量的ML解決方案。


   傳輸學(xué)習(xí):使用現(xiàn)有的AutoML架構(gòu)

我們的合作始于一個(gè)簡(jiǎn)單的問(wèn)題:AutoML能否為汽車(chē)生成高質(zhì)量和低延遲的神經(jīng)網(wǎng)絡(luò)?

“質(zhì)量”可以衡量神經(jīng)網(wǎng)絡(luò)產(chǎn)生結(jié)果的準(zhǔn)確性。“延遲”可以測(cè)量網(wǎng)絡(luò)提供答案的速度,也稱(chēng)為“推理時(shí)間”。由于駕駛是一項(xiàng)活動(dòng),要求我們的車(chē)輛使用實(shí)時(shí)反饋并考慮到我們系統(tǒng)的安全--關(guān)鍵性質(zhì),因此我們的神經(jīng)網(wǎng)絡(luò)需要低延遲運(yùn)行。大多數(shù)直接在我們車(chē)上運(yùn)行的網(wǎng)絡(luò)都可以在不到10毫秒的時(shí)間內(nèi)提供結(jié)果,這比在數(shù)千臺(tái)服務(wù)器上運(yùn)行的數(shù)據(jù)中心部署的許多網(wǎng)絡(luò)更快。

在他們最初的AutoML論文[1]中,我們的Google AI同事能夠自動(dòng)探索出超過(guò)12,000種架構(gòu)來(lái)解決CIFAR-10這種經(jīng)典圖像識(shí)別任務(wù):將一張小圖像識(shí)別為10個(gè)類(lèi)別中的一種,如一輛汽車(chē),一架飛機(jī),一只狗等。在后續(xù)的一篇文章[2]中,他們發(fā)現(xiàn)了一系列神經(jīng)網(wǎng)絡(luò)構(gòu)建塊,稱(chēng)為NAS單元,它可自動(dòng)構(gòu)建出比手工制作的用于CIFAR-10以及相似任務(wù)更好的網(wǎng)絡(luò)。通過(guò)這次合作,我們的研究人員決定使用這些單元自動(dòng)構(gòu)建用于自動(dòng)駕駛特定任務(wù)的新模型,從而將在CIFAR-10上學(xué)習(xí)到的知識(shí)遷移到我們領(lǐng)域中。我們的第一個(gè)實(shí)驗(yàn)是使用語(yǔ)義分割任務(wù):將LiDAR點(diǎn)云中的每個(gè)點(diǎn)識(shí)別為汽車(chē),行人,樹(shù)等。

AutoML:無(wú)人駕駛機(jī)器學(xué)習(xí)模型設(shè)計(jì)自動(dòng)化

One example of a NAS cell. This cell processes inputs from the two previous layers in a neural net.

為此,我們的研究人員搭建了一種自動(dòng)搜索算法,用于在卷積網(wǎng)絡(luò)架構(gòu)(CNN)中探索數(shù)百種不同NAS單元的組合,為我們的LiDAR分割任務(wù)訓(xùn)練和評(píng)估模型。當(dāng)我們的工程師手工對(duì)這些網(wǎng)絡(luò)進(jìn)行微調(diào)時(shí),他們只能探索有限數(shù)量的架構(gòu),但是通過(guò)搭建自動(dòng)搜索算法,我們可以自動(dòng)探索數(shù)百種架構(gòu)。我們發(fā)現(xiàn)模型較之前手工制作的模型有兩方面的改進(jìn):

  • 有些在相似質(zhì)量情況下具有顯著低延遲;

  • 其他在相似延遲情況下具有更高的質(zhì)量;

鑒于此初步的成功,我們將相同的搜索算法應(yīng)用于與交通車(chē)道檢測(cè)和定位相關(guān)的兩個(gè)附加任務(wù)中。遷移學(xué)習(xí)技術(shù)也適用于這些任務(wù),我們能在汽車(chē)上部署三個(gè)新訓(xùn)練和改進(jìn)的神經(jīng)網(wǎng)絡(luò)。


   端到端搜索:從頭開(kāi)始搜索新架構(gòu)

我們受初步實(shí)驗(yàn)結(jié)果鼓舞,因此我們決定進(jìn)一步更廣泛地搜索可以提供更好結(jié)果的全新架構(gòu)。不將自己限制于已經(jīng)發(fā)現(xiàn)的NAS單元中,我們可以直接考慮那些有嚴(yán)格延遲性要求考慮的架構(gòu)。

進(jìn)行端到端搜索通常需要手動(dòng)探索數(shù)千種架構(gòu),這會(huì)帶來(lái)很大計(jì)算成本。探索單一架構(gòu)需要在具有多GPU卡的數(shù)據(jù)中心計(jì)算機(jī)上進(jìn)行數(shù)天訓(xùn)練,這意味著需要數(shù)千天的計(jì)算才能搜索這個(gè)單一任務(wù)。相反,我們?cè)O(shè)計(jì)了一個(gè)代理任務(wù):減輕LiDAR分割任務(wù),使任務(wù)可以在幾個(gè)小時(shí)內(nèi)解決。

團(tuán)隊(duì)必須克服的一個(gè)挑戰(zhàn)是找到一個(gè)與原始分割任務(wù)足夠相似的代理任務(wù)。在確定該任務(wù)的體系結(jié)構(gòu)質(zhì)量與原始任務(wù)的體系結(jié)構(gòu)質(zhì)量之間的良好相關(guān)性之前,我們嘗試了幾種代理任務(wù)設(shè)計(jì)。然后我們啟動(dòng)了一個(gè)類(lèi)似于原始AutoML論文的搜索,但現(xiàn)在在代理任務(wù):一個(gè)代理端到端的搜索。這是首次將此概念應(yīng)用于激光雷達(dá)數(shù)據(jù)。

AutoML:無(wú)人駕駛機(jī)器學(xué)習(xí)模型設(shè)計(jì)自動(dòng)化

代理端到端搜索:在縮小的代理任務(wù)上探索數(shù)千種架構(gòu),將100種最佳架構(gòu)應(yīng)用于原始任務(wù),驗(yàn)證和部署汽車(chē)上最好的架構(gòu)。

我們使用了幾種搜索算法,對(duì)質(zhì)量和延遲進(jìn)行了優(yōu)化,因?yàn)檫@對(duì)車(chē)輛至關(guān)重要。我們觀察了不同類(lèi)型的CNN架構(gòu),并使用了不同的搜索策略,例如隨機(jī)搜索和強(qiáng)化學(xué)習(xí),我們能夠?yàn)榇砣蝿?wù)探索超過(guò)10000種不同的架構(gòu)。通過(guò)使用代理任務(wù),在一個(gè)Google TPU集群上花費(fèi)一年的計(jì)算時(shí)間只花了兩周。我們發(fā)現(xiàn)了比我們剛轉(zhuǎn)移NAS細(xì)胞時(shí)更好的網(wǎng)絡(luò):

  • 神經(jīng)網(wǎng)絡(luò)具有20-30%的低潛伏期和相同質(zhì)量的結(jié)果。

  • 神經(jīng)網(wǎng)絡(luò)的質(zhì)量更高,錯(cuò)誤率低至8-10%,與以前的體系結(jié)構(gòu)具有相同的延遲。

AutoML:無(wú)人駕駛機(jī)器學(xué)習(xí)模型設(shè)計(jì)自動(dòng)化

AutoML:無(wú)人駕駛機(jī)器學(xué)習(xí)模型設(shè)計(jì)自動(dòng)化

1)第一個(gè)圖顯示了在一組簡(jiǎn)單的架構(gòu)上隨機(jī)搜索發(fā)現(xiàn)的大約4000個(gè)架構(gòu)。每一點(diǎn)都是經(jīng)過(guò)培訓(xùn)和評(píng)估的體系結(jié)構(gòu)。實(shí)線標(biāo)記了不同推理時(shí)間約束下的最佳體系結(jié)構(gòu)。紅點(diǎn)表示使用傳輸學(xué)習(xí)構(gòu)建的網(wǎng)絡(luò)的延遲和性能。在這個(gè)隨機(jī)搜索中,網(wǎng)絡(luò)不如轉(zhuǎn)移學(xué)習(xí)中的網(wǎng)絡(luò)好。

2)在第二個(gè)圖中,黃色和藍(lán)色點(diǎn)顯示了其他兩種搜索算法的結(jié)果。黃色的是對(duì)一組精煉的架構(gòu)的隨機(jī)搜索。Blue One使用了如[1]所示的強(qiáng)化學(xué)習(xí),探索了6000多個(gè)架構(gòu)。結(jié)果最好。這兩個(gè)額外的搜索發(fā)現(xiàn)網(wǎng)絡(luò)比轉(zhuǎn)移學(xué)習(xí)的網(wǎng)絡(luò)要好得多。

搜索中發(fā)現(xiàn)的一些架構(gòu)顯示了卷積、池和反卷積操作的創(chuàng)造性組合,如下圖所示。這些架構(gòu)最終非常適合我們最初的激光雷達(dá)分割任務(wù),并將部署在Waymo的自動(dòng)駕駛車(chē)輛上。

AutoML:無(wú)人駕駛機(jī)器學(xué)習(xí)模型設(shè)計(jì)自動(dòng)化

代理端到端搜索發(fā)現(xiàn)的一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。


   下一步是什么

我們的汽車(chē)試驗(yàn)才剛剛開(kāi)始。對(duì)于我們的激光雷達(dá)分割任務(wù),傳輸學(xué)習(xí)和代理端到端搜索都提供了優(yōu)于手工制作的網(wǎng)絡(luò)。我們現(xiàn)在也有機(jī)會(huì)將這些機(jī)制應(yīng)用于新類(lèi)型的任務(wù),這可以改善許多其他神經(jīng)網(wǎng)絡(luò)。

這一發(fā)展為我們未來(lái)的ML工作開(kāi)辟了新的令人興奮的途徑,并將提高我們的自驅(qū)動(dòng)技術(shù)的性能和能力。我們期待著繼續(xù)我們的工作與谷歌人工智能,所以請(qǐng)繼續(xù)關(guān)注更多!


  參考

[ 1 ] Barret Zoph and Quoc V. Le. 搜索的神經(jīng)結(jié)構(gòu)與強(qiáng)化學(xué)習(xí)。ICLR,2017年。

[ 2 ] Barret Zoph, Vijay Vasudevan, Jonathon Shlens, Quoc V. Le, 學(xué)習(xí)可擴(kuò)展圖像識(shí)別的可轉(zhuǎn)移體系結(jié)構(gòu)。CVPR,2018年。


  *致謝

Waymo和Google之間的合作是由Waymo的Matthieu Devin和Google的Quoc Le發(fā)起和贊助的。這項(xiàng)工作由Waymo的Shuyang Cheng和Google的Gabriel Bender和Pieter Jan Kindermans共同完成。多謝維?!ぬ狒旕R拉什蒂的支持。

AutoML:無(wú)人駕駛機(jī)器學(xué)習(xí)模型設(shè)計(jì)自動(dòng)化

Waymo和Google團(tuán)隊(duì)成員(左起):Gabriel Bender、Shuyang Cheng、Matthieu Devin和Quoc Le

想要繼續(xù)查看該篇文章相關(guān)鏈接和參考文獻(xiàn)?

點(diǎn)擊【AutoML:無(wú)人駕駛機(jī)器學(xué)習(xí)模型設(shè)計(jì)自動(dòng)化】或長(zhǎng)按下方地址:

https://ai.yanxishe.com/page/TextTranslation/1441

AI研習(xí)社今日推薦:雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

CMU 2018 秋季《深度學(xué)習(xí)》課程將教你學(xué)習(xí)深度神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識(shí),以及它們?cè)诒姸?AI 任務(wù)中的應(yīng)用。課程結(jié)束后,期望學(xué)生能對(duì)深度學(xué)習(xí)有足夠的了解,并且能夠在眾多的實(shí)際任務(wù)中應(yīng)用深度學(xué)習(xí)。

加入小組免費(fèi)觀看視頻:https://ai.yanxishe.com/page/groupDetail/18

AutoML:無(wú)人駕駛機(jī)器學(xué)習(xí)模型設(shè)計(jì)自動(dòng)化

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。

AutoML:無(wú)人駕駛機(jī)器學(xué)習(xí)模型設(shè)計(jì)自動(dòng)化

分享:
相關(guān)文章

知情人士

AI研習(xí)社(yanxishe.com)譯站頻道,傳播前沿人工智能知識(shí),讓語(yǔ)言不再成為學(xué)習(xí)知識(shí)的門(mén)檻。(原雷鋒字幕組)
當(dāng)月熱門(mén)文章
最新文章
請(qǐng)?zhí)顚?xiě)申請(qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶(hù)安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)