1
本文作者: SebastianYuan | 2016-10-11 10:40 |
編者按:如何向消費者證明自家的汽車很安全,一直是一個困擾自動駕駛廠商的問題。作者認(rèn)為,由于路況的多變和復(fù)雜性,利用機器學(xué)習(xí)所實現(xiàn)的自動駕駛在面對潛在風(fēng)險時也會顯得力不從心。本文出自 IEEE,作者 Andrew Sliver, 雷鋒網(wǎng)編譯,未經(jīng)許可不得轉(zhuǎn)載。
去年秋天,媒體正在加州帕洛阿托試駕帶有自動駕駛系統(tǒng)的特斯拉 Model S
David Paul Morris/Bloomberg/Getty Images
汽車廠商很難證明自動駕駛汽車究竟有多安全,因為使它們智能化的核心是機器學(xué)習(xí)。
卡內(nèi)基梅隆大學(xué)的計算機科學(xué)家、從事汽車制造業(yè)的 Phillip Koopman 說道:“你不能總是覺得自動駕駛這玩意兒一定可靠。”
早在 2014 年,一家市場研究公司稱自動駕駛汽車市場將于 2030 年達(dá)到 870 億美元的規(guī)模。而包括谷歌、特斯拉和 Uber 在內(nèi)的許多公司均開展了自家的計算機輔助駕駛或全自動駕駛項目。這些公司或多或少都取得了一些進展,但仍有大量的技術(shù)難題等待攻克。
有部分研究人員認(rèn)為因為機器學(xué)習(xí)的本質(zhì),要證明自動駕駛汽車可以安全上路是一項非常困難的挑戰(zhàn),而Koopman 對此也深信不疑。
一般而言,工程師先按要求編寫代碼,然后運行測試檢查代碼是否滿足要求。但使用機器學(xué)習(xí),要讓計算機掌控這一復(fù)雜的系統(tǒng)就不是這么簡單的事兒了。
比如,處理同一天不同時間拍下的圖像或在特定環(huán)境下分辨像人行橫道、停車標(biāo)識等重要的標(biāo)識并不是寫個代碼就能解決的問題。Koopman 說:“機器學(xué)習(xí)的難點就在于,你根本無法界定代碼要滿足的要求是什么。”
多年前,工程師們就意識到傳統(tǒng)軟件是無法對相機圖像進行分析處理的,所以他們轉(zhuǎn)而使用了機器學(xué)習(xí)算法。算法通過對樣本的處理生成一個可以解決特定問題的數(shù)學(xué)模型。
工程師會提供許多帶有注釋的樣本——告訴計算機什么是停車標(biāo)識,什么不是。這些算法會把圖像分像素塊解析,提取當(dāng)中特征像素塊來建立運算模型。當(dāng)計算機收到新圖像時,它會將這些圖像在這個模型中運算一遍,以分辨出包含有停車標(biāo)識的圖像。
Koopman 說:“這種歸納式學(xué)習(xí)有一定的潛在失效風(fēng)險。如果你想深入看看這些機器到底在干什么的話,你只能看到一些統(tǒng)計數(shù)字。它就是個黑匣子,你根本不知道它到底在學(xué)些什么。”
更形象一點地說,設(shè)想你正在測試一臺自動駕駛汽車,想看它會不會躲開行人。而周圍有穿著橙色警示服的行人站著,此時你不對車輛采取控制。車輛也許會像程序里訓(xùn)練的那樣辨認(rèn)出行人的手、胳臂、腳甚至是橙色的襯衫,最后停止車輛。
或者再具體一點,假如你在夏天對自動駕駛車輛進行測試學(xué)習(xí),而整個夏天都沒有人戴過帽子,這時讓車輛電腦看見一頂帽子,豈不是會讓它驚慌失措?
“我們能用來訓(xùn)練算法的事件是有限的?!?/strong>Koopman 如是說。
人工神經(jīng)網(wǎng)絡(luò)是一種常見的能模仿人類大腦間神經(jīng)元聯(lián)系的機器學(xué)習(xí)模型。而谷歌的研究人員曾嘗試使用它來辨別啞鈴。如果系統(tǒng)通過一系列圖片了解了“啞鈴”是什么,但如果接受訓(xùn)練的圖片并沒有啞鈴單獨存在的形象(都是健美先生舉著它的樣子),那么它就無從提取啞鈴的基本要素,進而會產(chǎn)生錯誤的判斷。
這里的另一個問題便是安全驗證。Koopman 指出,如果使用近似數(shù)據(jù)對算法訓(xùn)練測試太多的話,它可能會記住某一次特定的測試,并返回那次測試的信息。
Koopman 稱,如果Uber任意挑選一個城市投放其自動駕駛汽車,而當(dāng)?shù)貨]有詳盡的高精度電子地圖的話,那么這些自動駕駛汽車也就無法完全發(fā)揮功效。雖然有一個簡單的解決辦法——只在匹茲堡市中心(Uber已繪制過這里的地圖)訓(xùn)練并投放自動駕駛汽車。但這樣就大大限制了自動駕駛汽車的使用范圍。
除此之外的又一大挑戰(zhàn)是,當(dāng)系統(tǒng)遇到諸如雨霧、揚塵等視線不佳天氣狀況時,算法的辨識能力是否會受到影響。
在 2013 年的一次研究中發(fā)現(xiàn),改變圖像中的某一像素塊,肉眼是看不出任何變化的,但卻能影響算法判斷能力,令算法以為面前的校車只是一輛普通車輛。
法國國家科學(xué)研究中心的軟件可靠性工程師 Matthieu Roy,從事于汽車和航空電子設(shè)備行業(yè),告訴我們說:“我們永遠(yuǎn)也不會把機器學(xué)習(xí)算法放在飛機上用,因為我們無法判斷系統(tǒng)的決策是對還是錯。而如果飛機不能通過自身的安全測試,它也不能起飛或降落?!?span style="line-height: 1.8;">Roy 指出,我們不可能將自動駕駛汽車可能遇到的場景都測試一遍,但是我們要應(yīng)對這些可能發(fā)生的潛在風(fēng)險。
Alessia Knauss 是瑞典查爾姆斯理工大學(xué)的軟件工程博士后,她正在研究一個開發(fā)自動駕駛汽車的最佳測試模型。她說:“這樣做的代價太大了!”
她目前正在約談一些車企高管,以洞悉他們對這方面的態(tài)度。她說,即便是配備了多個傳感器(如谷歌的自動駕駛汽車),也只是作為后備應(yīng)急使用。但每一個部件都要根據(jù)實際情況進行測試,這樣系統(tǒng)才能更好的利用它們。Knauss 說:“我們將盡力而為,開發(fā)出一個最佳的測試模型。”
Koopman 想讓汽車廠商在第三方機構(gòu)那里證明他們的自動駕駛系統(tǒng)到底有多安全。“我并不相信他們所說的話,” Koopman 說。
他還想讓廠商們對車輛的算法特點、不同場景測試訓(xùn)練的數(shù)據(jù)、以及他們在模擬測試中的產(chǎn)物如何現(xiàn)實生活中保證車輛乘客的安全進行專門講解。如果在工程團隊 100 億英里的模擬測試中都沒能發(fā)生任何突發(fā)事件,車輛也就理所當(dāng)然地不會有相應(yīng)的處理方式,而汽車廠商卻可以冠冕堂皇的稱其他情況不太可能發(fā)生。
“每個產(chǎn)業(yè)公司在開發(fā)關(guān)鍵軟件時都會設(shè)立一個獨立的制衡程序,”Koopman 指出。就在上月,美國國家公路交通安全管理局( NHTAS )頒布了自動駕駛汽車法規(guī),但 NHTAS 并沒對獨立的安全測試做出硬性規(guī)定。
Koopman 認(rèn)為,某些公司因為研發(fā)時限與研發(fā)成本的限制,對車輛的安全性指標(biāo)就會放寬要求。比如1986年 NASA 的挑戰(zhàn)者事故,正是因為忽視了一些風(fēng)險因素才導(dǎo)致了航天飛機在升空 73 秒后發(fā)生了爆炸,造成了 7 名宇航員身亡。
我們并不需要告訴公眾算法是如何進行安全檢查的,航空工業(yè)里有在航空公司就職的工程專家,要他們簽署保密協(xié)定也是行規(guī)?!拔也⒉皇窃诮趟麄冊撛趺醋?,我只是在告訴他們,民眾有權(quán)利知道點什么?!?/p>
via IEEE
推薦閱讀:
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。