丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
智能駕駛 正文
發(fā)私信給周翔
發(fā)送

0

專訪豐田研究所負責人Gill Pratt:自動駕駛面臨的挑戰(zhàn)及現(xiàn)實問題

本文作者: 周翔 2017-01-29 18:00
導語:“能夠拯救一個生命才算足夠好?!被蛘哒f,“只有當它比人類駕駛好10倍時,我們才接受它?!蔽也淮_定。在有答案之前,我們必須非常謹慎:不要引入不符合社會預期的技術。

專訪豐田研究所負責人Gill Pratt:自動駕駛面臨的挑戰(zhàn)及現(xiàn)實問題

雷鋒網(wǎng)按:在2015年的DRAPA(美國國防先進研究項目局)機器人挑戰(zhàn)賽結束之后,Gill Pratt推動了豐田研究所(Toyota Research Insititue,簡稱TRI)在美國的成立。這個研究所將在未來五年的時間里投入10億美元,用來研究機器人和人工智能。

如同外界預期的那樣,TRI將主攻自動駕駛技術:豐田與其他汽車廠商一樣,對如何利用自動系統(tǒng)讓汽車變得更安全、更高效以及更舒適非常感興趣。

IEEE Spectrum在CES期間采訪了Gill Pratt,探討了以下話題:

  • 沒有哪家廠商的自動駕駛技術接近Level 5;

  • 對自動駕駛技術過度信任的兩難困境;

  • 怎樣的自動駕駛汽車才算足夠好?

  • 機器學習以及“The Car Can Explain”項目;

  • 模擬人類司機可能會做出的瘋狂行為;

  • 計算機硬件需要一場革命;

  • 人和機器:到底誰該守衛(wèi)誰?

雷鋒網(wǎng)對采訪內容做了不改變愿意的編譯。

1. 沒有哪家廠商的自動駕駛技術接近Level 5

專訪豐田研究所負責人Gill Pratt:自動駕駛面臨的挑戰(zhàn)及現(xiàn)實問題

問:在豐田新聞發(fā)布會上,您說Level 5級別(SAE)的自動駕駛“只是一個美好的目標,不管是汽車界還是IT界,沒有哪家公司的自動駕駛技術接近這一級別?!边@和我們在展會上聽到和看到的完全不一樣,更不用說我們最近看到的各種宣傳演示視頻。

Pratt:最重要的是要理解并不是所有的路況都相同。大多數(shù)時候,我們的路況并不復雜,因此現(xiàn)在的自動駕駛技術能夠讓我們時不時打個盹,走走神或者聊聊天。但有些路況可能很復雜,現(xiàn)有的技術應付不了。

我們需要關注的是:這種情況出現(xiàn)的概率——能否確保汽車在給定的路線上,全程自主操控而沒有任何問題。Level 5要求汽車在任何情況下都不需要人類介入。

因此當一家公司說,“我們可以在這片繪制的區(qū)域實現(xiàn)全自動駕駛,我們幾乎為每一個區(qū)域都繪制了地圖”,這并不意味著Level 5。實際上,這是Level 4。如果碰到這樣的情況,我會繼續(xù)追問,“不論白天、晚上,不論什么天氣,不論什么交通狀況嗎?”

你會發(fā)現(xiàn)這個分級概念有點模糊,并沒有很清晰的界定。Level 4或者“完全自動駕駛”這樣措辭的問題在于,它概念特別寬泛。

比如,我的車能夠在一條專屬車道上實現(xiàn)全自動駕駛,這與火車在軌道上行駛并沒有太大差別。而雨天在羅馬混亂的馬路上行駛則是一件完全不同的事,因為這要難得多。

“完全自動駕駛”這個詞匯的意義太過寬泛,你必須問清楚,“真正的意思是什么?什么才是實際情況?”通常你會發(fā)現(xiàn)他口中的“完全自動駕駛”有諸多限制,比如車流、天氣、白天還是夜晚等等。

2. 對自動駕駛技術過度信任

問:這些信息給消費者帶來了期望值的問題,他們每天都聽到這些新詞匯、新概念,卻不知道它們到底意味著什么。

Pratt:你說的很對。作為消費者,我們喜歡自己在腦海里建立一個模型,來預測這種自動駕駛技術到底有多好。這種模型往往是帶個人感情的:我們只會關注某些事情,而自動駕駛技術的不完善可能會被選擇性地忽視,這讓我們要么過度信任,要么低估自動駕駛的能力。

豐田認為,對消費者進行教育,并讓他們真正了解技術的局限性非常重要。整個業(yè)界需要共同努力,從客戶的角度出發(fā),確保他們真正了解自動駕駛汽車的好處,以及它能做什么、不能做什么。這樣消費者就不會盲目信任自動駕駛。

過度信任是另一個大問題,一旦你將車銷售給消費者,當后者在適宜環(huán)境下體會到自動駕駛的種種好處,你就很難再影響他們。

隨著自動駕駛汽車技術的提升,需要人類介入的情況會越來越少,這將加劇過度信任的問題。因為用戶會這樣說,“它之前不需要我接手,現(xiàn)在也不需要,未來也沒有這個必要?!?/p>

從某些方面來說,最糟糕的情況是:一輛自動駕駛汽車每行駛20萬英里才需要人類接手一次,而一個平均行駛里程為10萬英里的普通司機則很難遇到需要自己接管的情況。但有時,當汽車突然發(fā)出預警,提示需要司機接手,對于一個已經(jīng)很久沒有碰到過這種情況的司機來說,可能會因為完全信任汽車,而疏于準備。

因此,我們也擔心:我們做得越好,過度信任帶來的問題就會越大。

3. 自動駕駛汽車需要比人類司機更懂駕駛,那怎樣才算是足夠好?

問:你認為Level 5級別的全自動駕駛現(xiàn)實嗎?或者說可能嗎?

Pratt:我認為是可能的,目前我們的標準參考的是人類司機的標準。

我在發(fā)布會上也提出了這個問題:“我們應該使用怎樣的標準來判斷這個系統(tǒng)要達到什么水平?”我認為這是非常重要的,但現(xiàn)在還沒有答案。目前,自動駕駛汽車離“完美”還需要很長時間,因此不可能完全避免事故的發(fā)生。

如果自動駕駛系統(tǒng)的駕駛水平比人類好10%,社會能接受嗎?還是說要好10倍才會被社會接受?我不知道。

老實說,作為技術工作者,我們并不能告訴大眾這個問題的答案,這個角色是屬于政府、屬于每一個將會被影響的人。“能夠拯救一個生命才算足夠好?!被蛘哒f,“只有當它比人類駕駛好10倍時,我們才會接受它?!蔽也淮_定。但我認為,在有答案之前,我們必須非常謹慎:不要引入不符合社會預期的技術。

在談到自動駕駛汽車安全時,我有時也會和別人一樣,試圖證明“就算自動駕駛汽車將安全系數(shù)提高了1%,我們也應該推廣它。”從理性的角度來看,這是正確的,但也是一件感性的事情。

人類并不理性:如果將空難作為類比,毫無疑問,飛機是最安全的旅行方式,你應該永遠不需要擔心空難。但飛機也可能會失事。當看過空難之后,我們的恐懼會被放大,然后開始擔心自己搭乘的飛機是否也會失事。

理性地說,這種擔憂毫無意義:汽車的事故率要比飛機高得多,但是只要飛機失事就會被占據(jù)新聞頭條,最后,我們開始擔憂飛機而不是汽車。

對于人類駕駛造成的事故,我們可能會想,“這可能發(fā)生在我身上,我也可能犯這樣的錯?!比绻且慌_機器,我擔心人們并不會因此產(chǎn)生同理心,因為他們只會希望這臺機器是完美、不會出錯的。我們知道,AI系統(tǒng),特別是基于機器學習的AI系統(tǒng),并不是十全十美、毫無缺點的。

由于通過傳感器獲取的外部信息維度太大,汽車會接收以前從未訓練過的信息,我們期望它能夠根據(jù)這些信息對周圍環(huán)境做出合理認知。

每隔一段時間,當我們取得新進展時,就可能因為認知系統(tǒng)的錯誤,導致事故發(fā)生。當事故發(fā)生后,我們能夠說什么?我們又要責怪誰?我們不知道這個答案,但這是一個非常重要的問題。

4. 機器學習以及“The Car Can Explain”項目

問:前谷歌自動駕駛汽車負責人、現(xiàn)TRI CTO James Kuffner在CES上談到了云機器人。自動駕駛汽車不可能完全避免事故,但是每當事故發(fā)生之后,汽車廠商能否查出事故的原因,并及時給推送軟件更新,防止此類事故再次發(fā)生?

Pratt:我認為這是很有可能的。

實際上,如果做不到這一點才會讓人驚訝。我們有非常詳細的駕駛日志,來記錄車禍時的情況。你問了一個很有趣的問題:我們能夠找到真正的事故原因嗎?

為什么說有趣呢?因為機器學習系統(tǒng),特別是深度學習,雖然有很強悍的性能表現(xiàn),但實際上它并不會通過分析得出答案,也正是如此,才讓尋找事故的原因變得非常困難。

我們在MIT以及其他地方都有研究,希望能夠在這方面取得進展。目前我們資助MIT教授Gerald Sussman的一個項目——“The Car Can Explain”,就在做這一方面的研究。

日志就在那里,但是誰才應該為錯誤負責?這是一個更難的問題。我們能做些什么來確保這種錯誤不會再次發(fā)生?“我今天修補了這個漏洞,明天又修補了另一個漏洞......”但是這個系統(tǒng)太過龐大,很多地方都可能會出現(xiàn)問題。

事實證明,測試、測試、測試是最重要的事情。在全球范圍內,汽車行駛的總里程約為10萬億公里。因此,如果你只測試幾百公里,它很難覆蓋到所有情況。你需要通過另一種方式來提升它的能力,解決這個問題——加速模擬測試就是其中關鍵一環(huán)。我們不會模擬那種完美情況:風和日麗、交通順暢,我們要模擬的是惡劣的天氣和環(huán)境。

Rod Brooks有句話說的很對:“模擬是通往成功的必經(jīng)之路”。同時,我們很清楚模擬的種種缺陷,因此我們也做了很多路測來驗證模擬的結果。我們也會使用模擬器測試一些不屬于常規(guī)測試的項目,這些項目很可能是事故發(fā)生的原因。

比如,當一輛自動駕駛汽車碰到路怒癥司機,就算那個司機不遵守規(guī)則,不按常理出牌,自動駕駛系統(tǒng)也需要做出正確的決策。

我們不會在現(xiàn)實中反復測試這種情況,因為大多數(shù)時候都是以撞車而收場。我們會隔一段時間測一次,同時,通過模擬來增強自動駕駛系統(tǒng)的性能,不過這個模擬的過程非常困難。最終,這將我們帶到了另一個領域:形式化方法(formal methods,適合于軟件和硬件系統(tǒng)的描述、開發(fā)和驗證)。

我們希望將模擬和形式化方法結合起來,但最終還是需要路測。深度學習是很了不起的方法,但是它并不能保證所有輸入和決策行為都是正確的,想要確保它們都正確也是一件非常困難的事情。

5. 模擬人類司機可能會做出的瘋狂行為

問:不論是什么級別的自動駕駛汽車,對于它們來說,人類都是最不可控的因素。每次路測,都會遇到各種人類行為,你們是如何模擬這些只有人類才會做的瘋狂的事情?

Pratt:其實這和我們模擬天氣或交通狀況類似。想要完全模擬人類的行為很難,因為每個人都不一樣,存在太多可能性,但我們認為這在某種程度上是可行的。

作為一個司機,我們可以利用心智理論(一種能夠理解自己以及周圍人類心理狀態(tài)的能力)想象其他司機駕駛時的行為。

首先,在自己的頭腦里模擬一遍,比如當我們碰到“four way stop”(每個方向都有停車標志的十字路口)時,假如我是司機,會怎么做?心智理論意味著模擬是一件可能的事情,因為我們能夠通過建立統(tǒng)計模型來預測其他人會有怎樣的行為。

問:有時候,人類作出的反應并不一定就是安全的行為。你們如何教一輛汽車在這樣的環(huán)境下做決策?

Pratt:這是一個很有趣的問題。

當你在高速公路上行駛時,如果最高限速是55英里/小時,你是會開到55英里/小時?還是和周圍司機差不多的速度?什么才是最安全的?

我不想給出一個官方回答,但這是一個難題,我們也與豐田法務部門探討過這個問題。他們也認為很難給出一個確定答案。

6. 計算機硬件需要一場革命

問:在新聞發(fā)布會之后,您提到了一些關于如何為電動汽車中的車載計算機供電以及如何散熱是一個大難題。我們一直專注于自動駕駛汽車在決策制定方面遇到的困難,但還有哪些方面也是需要我們弄清楚的?

Pratt:我喜歡這個領域,是因為我身后有一支專攻硬件的隊伍。

過去,我研究過神經(jīng)生理學。計算效率非常重要,我們大腦的功耗只有50瓦,然而大部分的自動駕駛系統(tǒng)功耗高達幾千瓦。我們大腦不止在處理駕駛這一件事情,而是會同時思考其他事情?;蛟S,真正分配給駕駛的也就10瓦。

目前我們還不知道給自動駕駛汽車配備多高的計算性能才算是合適的。很有可能,我們將計算性能提高10倍,自動駕駛系統(tǒng)的性能并不會提升10倍,而只是有明顯改善。如果我們將計算性能提高100倍,或許自動駕駛系統(tǒng)仍然有提升空間,并有所改善。

自動駕駛系統(tǒng)的性能會持續(xù)提升,但我不知道這會是一條怎樣的增長曲線。因此,除了軟件、測試等工作,我們還需要重新設計計算機硬件,讓它變得和我們的大腦一樣高效。

至于你提到的其他需要解決的問題,我認為傳感器還有很大的發(fā)展空間。

激光雷達確實很不錯,但是還有很大的改善空間。比如,采樣密度仍然較低,在探測遠處的汽車時,并不能和人類視覺相提并論。又比如,對于Level 3級別的自動駕駛汽車來說,需要預留時間讓司機作出反應——除非你的傳感器能夠探測到并理解遠方發(fā)生的事情,否則不可能提前提醒你。

此外,傳感器還需要便宜、防震,并且能夠持續(xù)工作10到20年。大多數(shù)人認為汽車的質量不高,實際上是非常高的。我曾經(jīng)在DRAPA做過很多軍用規(guī)格的產(chǎn)品,但是想要達到與汽車相當?shù)馁|量是非常困難的。

比如攝像頭,汽車可能需要在沙漠或者阿拉斯加等不同的環(huán)境中行駛,那么就會有鹽、銹等腐蝕性物質,甚至屏幕被灰塵覆蓋等各種情況。因此想要保證汽車傳感器在不同的環(huán)境下持續(xù)正常工作,這是相當困難的。

我認為,這個領域的技術人員普遍有一個共同的愿望,那就是媒體、特別是公眾能夠更好地被教育,真正理解這個行業(yè)正在發(fā)生的事情。比如像“完全自動駕駛”這種措辭就很容易被誤解?!巴耆币馕吨裁??其實有很多意思。

因此最好不要說,“因為我們想要挽救生命,所以我們需要自動駕駛汽車”。其實還有很多輔助人類司機的方法。大多數(shù)時候這些輔助系統(tǒng)不會被激活,只會偶爾給個警告或提示,如果有必要的話,再從司機那里接管汽車。這種系統(tǒng)不需要所有情況都能勝任,只需要能處理最壞的情況就可以了。

7. 人和機器:到底誰該守衛(wèi)誰?

問:目前機器擅長的往往是人類不擅長的,比如需要時刻集中精神,注意前方的車輛,或者車道。這種說法對嗎?

Pratt:很正確,人和機器是互補的:機器能夠一直保持警惕,不會疲倦,人類則擅長處理復雜的情況,這正是機器的弱點。那么,我們怎樣才能讓這兩者互補,而不是互相沖突?換一種思考方式就是:到底誰該扮演守護者的角色?是自動駕駛系統(tǒng),還是人類?

目前想要讓機器守護人類需要達到的標準還很高,我們的目標是讓人類最終并不需要再擔憂什么,把一切交給AI就好。這也是為什么豐田會采取齊頭并進的模式。

很多公司來CES參展其實都是來賣車、賣技術的,但豐田并不需要推銷,我們希望利用這個機會來教育用戶。

專訪豐田研究所負責人Gill Pratt:自動駕駛面臨的挑戰(zhàn)及現(xiàn)實問題

問:目前NHTSA(美國國家公路交通安全管理局)只劃分了4個等級,對嗎?

Pratt:是的。NHTSA只有4個等級,但是SAE(Society of Automotive Engineers,美國汽車工程師學會)非常聰明,他們將Level 4進一步劃分成Level 4和Level 5。Level 5在何時何地都不需要人類接管,而Level 4在某些情況下需要人類接管。除此之外,他們在本質上是相同的。

雖然SAE的劃分沒什么問題,但一直被大眾誤解。目前,很多Level 2都被稱作Level 3,這其實是錯誤的。而Level 3的關鍵在于不需要人類一直監(jiān)管。

問:當司機不能接管時,是否有備用計劃(Plan B)?我記得Freightliner在介紹他們的自動駕駛卡車時說:如果司機不接管,就會直接停在高速公路上,因為它不知道該怎么做。

Pratt:在SAE的分類里,并沒有提及備用計劃,比如當車必須停下來時,應該??吭谀睦铩N以谛聺晌髦蓍L大,那里的很多高速公路都沒有可以??康牡胤?,那么你要怎么做?這也是難點之一。

此前,有人建議說可以通過遠程操控來解決:當自動駕駛汽車陷入困境的時候,它就會自動轉接到某個呼叫中心的遠程司機,讓他接管。首先,這必須要有足夠快速、穩(wěn)定的網(wǎng)絡,還要沒有黑客,沒有自然災害。最重要的是,一個在呼叫中心的工作人員能夠瞬間作出反應,接管并處理問題嗎?人類不可能一直保持警惕,這是人類的弱點。人類也不擅長及時并正確地處理突發(fā)事件。

我并不是說這完全不可能,而是這個過程可能非常困難。

雷鋒網(wǎng)推薦閱讀:

對于全自動駕駛,豐田研究所負責人是這么評價的

本文參考資料:

http://spectrum.ieee.org/cars-that-think/transportation/self-driving/toyota-gill-pratt-on-the-reality-of-full-autonomy#qaTopicThree

【招聘】雷鋒網(wǎng)堅持在人工智能、無人駕駛、VR/AR、Fintech、未來醫(yī)療等領域第一時間提供海外科技動態(tài)與資訊。我們需要若干關注國際新聞、具有一定的科技新聞選題能力,翻譯及寫作能力優(yōu)良的外翻編輯加入。 

簡歷投遞至 wudexin@leiphone.com,工作地 北京。

雷峰網(wǎng)版權文章,未經(jīng)授權禁止轉載。詳情見轉載須知。

分享:
相關文章
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說