0
本文作者: AI研習社-譯站 | 2018-06-07 10:29 |
雷鋒網(wǎng)按:雷鋒字幕組獲MIT課程團隊授權翻譯自動駕駛課程
我們?yōu)槟阏砹嗣恳粋€ Lecture 的課程筆記,提煉出每一講的要點精華,推薦結合課程筆記觀看視頻內容,學習效果更佳。
原標題 MIT 6.S094: Deep Learning for Self-Driving Cars 2018 Lecture 2 Notes
作者 | Sanyam Bhutani
翻譯 | tikboa、原野、葉青、聶璐 整理 | 凡江
本文所有圖片均來自課程 PPT。
下文是關于 MIT 6 S094 第 2 講筆記:自動駕駛深度學習課程(2018),主講人 Lex Fridman。
自動駕駛汽車
(或無人駕駛汽車或 Robocars)
理想觀點:
自動駕駛汽車如何改變我們的生活:
世界各地一百三十萬人死于交通事故
僅在美國就有 35000 到 40000 人
機會:設計拯救生命的人工智能系統(tǒng)
自動駕駛有能力避免司機醉酒,疲勞,分心駕駛
消滅私有經(jīng)濟:
增加共享流動性
節(jié)約開銷
通過減少一個數(shù)量級的交通費用,降低成本變得可行
在交通工具上嵌入的軟件使我們擁有更個性化的體驗
現(xiàn)實觀點:
增加失業(yè)率:新興科技總是被人們懼怕的,因為它可能會奪走那些依賴于現(xiàn)有技術的工作。比如:
從事交通運輸?shù)娜藛T。
我們必須在哲學、技術、道德層面去考慮智能系統(tǒng)失敗的可能性。
大眾文化中的 AI(不包括工程師)可能懷有偏見?!昂谙蛔印暗牡赖聹蕜t是什么?它是否是遵循我們的社會準則?
安全性:使用代碼的交通工具可能被黑客入侵。
一位工程師的觀點:我們想找到一種可行的方法去改變我們的社會,并且改善我們的生活。
懷疑論:
關于什么是困難的和什么是容易的,我們擁有直覺。然而對于深度學習來說,AI 是有瑕疵的。
人類擅長駕駛。我們的直覺是基于數(shù)據(jù)來源、注釋、算法。
當我們作出預測和決定時,我們應該留意是否朝向了理想主義或者現(xiàn)實主義。
兩年以上時間就能開發(fā)出新車的承諾是值得懷疑的。
一個好的測試應該是在公共道路上大規(guī)模的測試車輛,另一個挑戰(zhàn)是怎么讓他們愿意購買。
Rodney Brocks 提出的(被廣泛認可的)預測:
>2032: 美國主要的無人駕駛出租車公司即使在地理禁區(qū)也能隨意實現(xiàn)接客和下客。
>2045: 美國大部分城市將會批準這些。
技術采用率 VS 年數(shù):
就社會而言,我們樂于接受新技術。
每件事都能迅速改變。
概述:
不同的自動化方法
自動化的等級(SAE J 3016):
對初步討論,政策制定和媒體帖子進行有用的分類。
對于設計底層系統(tǒng)和整體系統(tǒng)性能來說,沒有什么用處。
超越傳統(tǒng)水平: 兩種類型的AI系統(tǒng)。
起點: 每一個系統(tǒng)在一定程度上都需要人類,需要人們控制車輛并參與到系統(tǒng)中去。
A1: 以人為中心的自動化。定義: 人工智能不完全負責,人類對行為負責。
它可以使用的頻率是多少?
它是基于傳感器的嗎?
交付給司機接管所需要的秒數(shù),目前接近 0 秒。 (喚醒并控制系統(tǒng)所需要的時間)
由車外的人員進行遠程接管控制。 人們需要對以人為中心的自動化負責。 如果系統(tǒng)失效,人類需要接管控制。
A2: 人工智能完全負責。 從法律上講, 汽車設計師對此行為負責。
不涉及遠程操控。
不應該有 10 秒原則,這點還不夠好。
必須找到安全港。
允許人類接管作為個人選擇。 僅當遭遇危險時(比如車禍),人工智能會無視人類操控。
L0: 起點;
L1,L2,L3: A1: 以人為中心;
L4,L5: A2: 完全自動化。
以人為中心的方式: 批評: 當人類擁有系統(tǒng)時,他們會過度信任系統(tǒng)。系統(tǒng)越好,人們會注意得越少。
公眾對于自主車輛內部所發(fā)生的變化有哪些看法:
工程師的觀點:
道路上大量的車輛內部都配備了自動駕駛儀,這就意味著大量的數(shù)據(jù)。
MIT-AVT 自然駕駛數(shù)據(jù)集
數(shù)據(jù)集包括來自三臺高清攝像機的影像
GPS、IMU 收集的所有數(shù)據(jù)
來自 CAN Bus 的數(shù)據(jù)
源自車內的數(shù)據(jù), 包括對話、注意力水平、困倦、情緒狀態(tài)、身體姿勢、活動等等。
5B+框架, 主動解說。
高速公路出行數(shù)據(jù):
利用數(shù)據(jù)來理解人的內在行為。
利用數(shù)據(jù)來訓練理解和控制。
GPS 地圖: 紅色-手動駕駛里程。 藍色-自動行駛里程。
33% 的里程為自動駕駛(使用自動駕駛儀)。
簡略分類: 區(qū)分使用自動駕駛儀和手動駕駛兩種情況下人的注意力。 承諾:以人為中心的方式,系統(tǒng)不會被過度信任。
特斯拉自動駕駛(Auto-Pilot):
用途:強烈的(很高比例的速度)
道路類型:大多數(shù)為公路
精神參與:在人類不舒服時,進行 8,000 次控制轉換。要點:有風險存在。
身體參與:兩種情況下注意力保持不變。
要點:
要相信系統(tǒng),讓系統(tǒng)暴露其缺陷。知道什么情況下它有效,什么時候失效。
檢查系統(tǒng)的極限:在具有挑戰(zhàn)性的環(huán)境中。
自動駕駛汽車:機器人的角度
前景廣闊:車輛數(shù)量巨大。
深刻的:將控制權轉移給AI。
私人的:構建一種以人機交互為關鍵點的關系。
相比于“感知控制”系統(tǒng),它更像“私人機器人”。
人類和機器的缺陷必須是透明的,并且在兩者之間進行溝通。
要點:90% 的情況下啟用系統(tǒng)。通過揭示缺陷,我們允許人類在需要的時候采取控制。
傳感器
可以處理的原始數(shù)據(jù)源。
照相機:視覺系統(tǒng)-RGB,紅外線
雷達:超聲波
激光雷達
超聲波:
在近距離工作良好。
便宜。
傳感器的尺寸可以很小。
能在惡劣天氣、能見度下工作。
范圍很小。
分辨率低。
無法檢測速度。
雷達:
在具有一定程度自主性的車輛中廣泛可用。
電子和超聲波變種都很便宜。
在有挑戰(zhàn)性的天氣下表現(xiàn)良好。
低分辨率。
在當前最為可靠并且使用范圍廣。
雷達:
具有超聲波的所有優(yōu)點,并且能夠檢測速度。
低分辨率。
沒有紋理和彩色分辨率。
激光雷達:
價格昂貴。
極其精確的信息深度——具有很高的分辨率。
360 度的可見范圍。
可靠的數(shù)據(jù)密度更高。
激光雷達圖:藍色的半徑越大,性能越好。
范圍還可以,但不是很好。
在黑暗和明亮的照明條件下可以工作。
在惡劣天氣下無效。
沒有顏色、紋理的信息。
能夠檢測速度。
傳感器尺寸大。
價格昂貴。
不適用于超聲波。
照相機:
便宜。
高分辨率:信息密度最高,信息能夠被學習和推斷。
與其他傳感器相比,可獲得更多數(shù)量級的數(shù)據(jù)。
人類大體上用類似的方式工作。
缺點:深度估計不好,在極端天氣下不可靠。
范圍和靈敏度的對比。條件 1:清晰,光線好的條件
照相機提供最大的范圍。
超聲波有較高的分辨率,但是提供的范圍很小。
條件 2: 清晰、昏暗條件 VS 條件 3:大雨或霧或雪:
在兩種條件下視覺上都不可靠。
雷達能保持不變。
激光雷達在夜間運轉良好,但在惡劣天氣條件下無法工作。
照相機:
便宜。
傳感器尺寸小。
近距離時性能較差。
范圍最大。
在強光下表現(xiàn)良好,對光線條件較為敏感(但也不總是如此)。
在黑暗條件下無法工作。
在能見度較差(惡劣天氣)時無法工作。
提供了豐富的文本信息(深度學習所必須的)。
傳感器融合:
便宜的傳感器:超聲波+照相機+雷達。
傳感器的未來
照相機和激光雷達對比
激光雷達
融合的便宜傳感器:標記的數(shù)據(jù)一直在增長,深度學習算法在持續(xù)改善中。
兩者表現(xiàn)一樣好。對激光雷達的挑戰(zhàn)體現(xiàn)在:花銷、范圍和尺寸。
便宜傳感器融合和激光雷達的對比
公司
Waymo 公司
2017年4月:結束測試,允許第一次公開上路。
2017年11月:獨立(筆記:獨立的定義存在爭議)駕駛了超過400萬英里。
2017年12月: 沒有司機。
優(yōu)步
2017年12月:自動駕駛超過了200萬英里。
特斯拉
2014 年 9 月:發(fā)布了名為 Autopilot 的自動駕駛系統(tǒng)。
2016 年 10 月:從頭開始研制第二代 Autopilot 系統(tǒng)。
2018 年 1 月:通過自動駕駛系統(tǒng) Autopilot 行駛了超過 10 億英里。
2018 年 1 月:超過 30 萬輛汽車裝備了自動駕駛系統(tǒng) Autopilot。
奧迪 A8 系統(tǒng)(將于 2018 年底發(fā)布):
承諾達到 Level 3 級別的自動駕駛技術。
Thorsten Leonhardt 將 L3 定義為: 如果遇到交通擁堵,汽車將以低于每小時 60 km 的速度行駛。
發(fā)生碰撞后汽車將負有法律責任(在自動駕駛模式下)。
值得注意的地方。
人工智能和機器學習的機遇。
定位和地圖構建:
能夠在空間中定位自己。
視覺里程計:
使用照相機傳感器來理解環(huán)境并定位車輛。
SLAM:同時實現(xiàn)定位和地圖構建。
在場景中檢測特征,時不時地或者逐幀來追蹤這些特征,估計照相機的位置和方向。
傳統(tǒng)方法:
得到傳感器的饋電。
(立體聲) 不失真,矯正
(立體聲) 計算視差圖
特征檢測 (例如,SIFT 尺度不變特征轉換,F(xiàn)AST)特征追蹤 (例如,KLT(Kanade-Lucas-Tomasi)跟蹤算法、軌跡預估
使用場景部分(要求外部和內部檢測)
對于單聲道,需要更多類似于照相機方位和距地高度的信息
深度學習的方法-端到端的方法:
從視頻中提取特征,使用卷積神經(jīng)網(wǎng)絡算法。
使用循環(huán)神經(jīng)網(wǎng)絡來一直追蹤軌跡。
估量姿態(tài)。
贊成:借助數(shù)據(jù)后將變得更好。
贊成:這是“可訓練的”
場景理解
借助照相機來理解環(huán)境。
將照相機作為主要的傳感器來駕駛。
物體檢測:傳統(tǒng)的 HAAR 算法。
深度學習在該領域占據(jù)主導地位,對識別、分類和檢測提供更高的準確性。
道路紋理和聲音條件:使用遞歸神經(jīng)網(wǎng)絡算法。贊成:改善車輛的牽引力控制。
運動規(guī)劃
在理解場景之后,如何從 A 到 B ?
傳統(tǒng):基于控制的優(yōu)化:決定最優(yōu)的控制,將問題形式化為可修正的基于優(yōu)化的方法。
深度強化學習方法。
駕駛狀態(tài)
檢測駕駛的狀態(tài)。
與司機進行交互。
這些度量標準對于檢測睡意,情緒狀態(tài),檢測一覽(確定司機的注意力在哪里)是非常重要的。
”蜥蜴-貓頭鷹效應“:蜥蜴(大部分)的眼睛比頭動得更多,而貓頭鷹(小部分)頭比眼睛動得更多。
估計司機的認知負荷。
身體姿態(tài)估計。
基于語音交互的司機情緒。
認知負荷:通過眼睛區(qū)域來估計,通過眨眼動態(tài)來估計一個人的思維深度,級別在 0-2 之間。
重申:自動駕駛未來的兩條路
論點: A1 系統(tǒng)在近些年更受歡迎
對于 A2 系統(tǒng)的挑戰(zhàn):
復雜的情況。
聲稱自己處于“繁忙的區(qū)域”。
雷鋒網(wǎng)雷鋒網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知。