丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
智能駕駛 正文
發(fā)私信給Ryan Woo
發(fā)送

0

深度解析:Tesla 自動駕駛的前世今生 (下)

本文作者: Ryan Woo 2016-09-23 16:09
導語:本文為Tesla自動駕駛解讀的最終篇。

雷鋒網(wǎng)按:本文作者Ryan Woo,曾擔任中科院計算技術(shù)研究所交互設計師,現(xiàn)在硅谷擔任計算機軟件工程師。原文載于知乎,雷鋒網(wǎng)已獲授權(quán)。

| 8.0時代的Autopilot ——通向未來之路

今天上午,Elon Musk發(fā)布了關(guān)于Tesla 8.0升級中的Autopilot 的情況,第一次看到這個消息,我很震驚,但是細細一想又覺得合情合理,這里不妨一步一步分析:

Autopilot自動輔助駕駛再升級:通過雷達看世界

那次Josh Brown的車禍確實是8.0系統(tǒng)中更新Autopilot的催化劑,但是真正讓8.0的Autopilot大換血的其實是前面提到的車隊學習而帶來的,其實在上一個月的財報上,Elon Musk 說了這么一句話:

“It blows me away the progress we are making. And if it blows me away, it’s really going to blow away other people too when they see it for the first time.”


(Tesla)目前自動駕駛技術(shù)的進展簡直讓我目瞪口呆。如果這能讓我目瞪口呆,絕壁讓其他人呆若木雞。

很多人以為Elon談的是未來完全自動駕駛的汽車,其實Elon指的就是 8.0里面的Autopilot:

在我們即將向特斯拉車主推送的8.0版本軟件中,最顯著的就是Autopilot自動輔助駕駛升級。我們通過使用車輛搭載的雷達,采用更先進的信號處理,生成一幅世界的影像。該雷達是Autopilot自動輔助駕駛配套硬件的組成部分,全部2014年10月之后出廠的特斯拉車型都搭載了這一雷達。一直以來,該雷達一直是主攝像頭以及圖像處理系統(tǒng)的輔助傳感器。

所以如果我們把7.0時代的Autopilot稱之為Autopilot 1.0,那么8.0里面的Autopilot 稱之為2.0毫不為過,它根本不是對于之前1.0的修補,而是徹底重寫了整個自動輔助駕駛:

  • Autopilot 1.0 基于Mobileye的圖像識別技術(shù),主要數(shù)據(jù)來自于車頂?shù)腗obileye攝像頭,車首的雷達和周邊雷達只是提供輔助信息。

  • 而Autopilot 2.0則是基于雷達識別環(huán)境,主要數(shù)據(jù)來源于車身上的雷達,而輔助數(shù)據(jù)則來源于車隊學習的高精度地圖和白名單。

所以我們之前的分析就派上用場了,通過雷達來成像主要難點就是如何解決誤報False Positive,正是因為雷達成像的特殊性,一個很小的金屬物體可能會被識別成一堵墻,所以人們才不費周折的去用高成本Lidar,但是Tesla確通過自己的技術(shù)巧妙解決了。

Tesla專門用三段來描述這個例子:

特定波長的光子可以輕易地穿越霧、粉塵、雨、雪,然而金屬物品看起來如同鏡子。雷達可以看見人體,但是他們被顯示為部分透明。木制品和涂色塑料制品這些對人類而言顯而易見的物品,對雷達而言,幾乎都像玻璃一樣透明。


另一方面,任何凹型的金屬表面不僅僅會反光,更會將反射信號放大數(shù)倍。比如,一個丟棄在公路上的易拉罐,如果凹狀瓶底朝向車頭,就會被顯示成為一個大型的危險障礙物,但這時候,你一定不想猛踩剎車而避過這個易拉罐。


因此,如何避免由于錯誤報警而導致車輛停止行進,是使用雷達帶來的一個大問題。在車輛即將撞上大型物體時,剎車是必要的 ---但不應該是為了避開一個易拉罐。這些不必要的剎車行為,輕則令人不快,重則導致駕駛員受傷。

所以Tesla想說的就是:

我們解決雷達的誤報問題了!看到這里的讀者是否會會心一笑呢?Amnon博士口中自動駕駛最難攻克的難關(guān)就這樣被技術(shù)馴服了。

深度解析:Tesla 自動駕駛的前世今生 (下)

接下來就是講為什么他們會采用雷達替換掉圖像識別技術(shù):

為了解決誤識別障礙物從而導致頻繁剎車制動問題的第一部分,是擁有更為詳細的點云數(shù)據(jù)??罩猩?.0系統(tǒng)對現(xiàn)有硬件進一步挖掘,讓雷達可以探測到的周邊的物體(數(shù)量)達到以前的六倍,并且有能力在每一個物體上獲得更多細節(jié)信息。


減少誤識別的第二部分包括整合每隔0.1秒獲取的雷達快照,匯編成為現(xiàn)實場景的"3D"影像。(通常)通過單一影像幀,很難知道物體是移動的,靜止的,或者只是反光造成的虛像。通過比較包含車輛速度、預期軌跡信息的連續(xù)影像幀,車輛可以分辨前方物體是否是真實的,同時預估發(fā)生碰撞的概率。

一句話來說就是:

我們的工程師解決了雷達的成像問題!不再需要攝像頭主唱了

那么雷達下的世界會是什么樣呢?目前我們只能瞎想了,借用Google 自動駕駛時的Lidar數(shù)據(jù)圖,在Tesla的雷達眼里會不太一樣:

深度解析:Tesla 自動駕駛的前世今生 (下)

最后一個重點,通過車隊學習的高精度數(shù)據(jù)去對比雷達探測的實景來白名單過濾:

第三部分就更加復雜。當行駛中的車輛正在接近一個高速公路上坡時視線上方的路標,或當車輛在通過帶有交通標志的橋下,這種視覺上的落差,經(jīng)??雌饋硐袷菍⒁l(fā)生碰撞。而導航和高精準GPS都不足以判定車輛是否能從此物體下方安全通過或發(fā)生碰撞。到車輛接近,道路坡度改變時,再剎車為時已晚。


這種情況下,車隊學習功能便派上用場。一開始,車隊不會采取任何行動,而只是識別出路標、橋梁和其他靜止的物體,并通過雷達繪制地圖。車載計算機系統(tǒng)在后臺將預計是否應該剎車,并與駕駛員的實際行為進行比較,并將這些數(shù)據(jù)上傳至特斯拉數(shù)據(jù)庫。如果一些車輛安全通過被雷達標定的物體,無論Autopilot自動輔助駕駛是否開啟,這個物體將被加入地理編碼的白名單(被標注安全)。


如果雷達探測到前方障礙物,而且特斯拉數(shù)據(jù)庫顯示該地點因誤判而導致剎車行為的幾率很小,即使在光學攝像頭沒有探測到前方障礙物的情況下,車輛仍然會采取輕度制動。隨著系統(tǒng)置信度不斷提升,當雷達確定99.99%發(fā)生碰撞的可能性時,剎車強度將會逐步提升至全力制動?;蛟S這不能徹底地避免碰撞的發(fā)生,但明顯的減速,會使車上乘客受到嚴重傷害的機率大大降低。

這不正是直面Josh Brown那次車禍嗎?就差沒說名字了

還記得上面我們提到的車隊學習:

深度解析:Tesla 自動駕駛的前世今生 (下)

雷達本身還不夠,車隊學習的大數(shù)據(jù)來輔助判斷你探測到的一草一木是真的“草”還是“木”。

所以大量跑在路上的Tesla就是一雙雙“眼睛”和“手”在你駕駛的同時,它們就在默默的更新數(shù)據(jù)庫,為了下一個通過此地的人的安全。

如果我們再次回顧Josh Brown事件,新的自動輔助駕駛系統(tǒng)會有非常不一樣的處理流程,下面的話摘自Tesla發(fā)布8.0系統(tǒng)后答記者問部分,來源于http://electrek.co 整理錄音:

Elon Musk – Tesla CEO

These things cannot be said with absolute certainty, but we believe it is very likely that yes, it would have. The reason is that it would see a large metal object  across the road and knowing that there’s no road sign, there’s no overhead road sign, in that position, therefore it would not be a whitelisted situation and probability would be assessed as high and so it would brake.


(Josh Brown事件)沒有百分百的確定,當時我們相信在類似的情況下,緊急剎車會正確啟用。因為在新的系統(tǒng)看來(卡車)是一個巨大的金屬物體橫在道路中間,同時從車隊數(shù)據(jù)中得知該路段并沒有這樣的圖牌,因此它不會認為這是一個安全的物體,從而會因為高碰撞可能性而緊急制動。

如此浩大的一個工程,Tesla竟然用一年的時間完成了(上一次發(fā)布Autopilot是2015年10月),不得不說正是大量路上的 Tesla 產(chǎn)生的數(shù)據(jù)給他們以激勵,才讓雷達為主的自動輔助駕駛時代到來,而那次車禍不過是讓它早早提上日程的催化劑。

對此Elon Musk解釋道:

It’s both the data and the way that data is use by the car. What algorithms we use with the data? Those things are both improving rapidly over time.They have a multiplying effect. It’s sort of like the data multiply by the quality of the algorithms and the data is increasing rapidly and the quality of algorithms increase rapidly so it ends up the area under the curve of those two things. It’s really quite dramatic over time.


在數(shù)據(jù)和算法上面的顯著進步促成了這次8.0以雷達為主的自動輔助駕駛,這是一個乘法效應,數(shù)據(jù)x算法最后得到自動駕駛的質(zhì)量。通過車隊學習我們獲得了大量的駕駛數(shù)據(jù),再輔以快速進步的算法使得駕駛質(zhì)量進一步提升。

在未來是否使用Lidar上,Musk堅決的回答No:

...we do not anticipate using lidar. Just to make it clear, lidar essentially is active photon generator in the visible spectrum – radar is active photon generation in essentially the radio spectrum. But lidar doesn’t penetrate intrusions so it does not penetrate rain, fog, dust and snow, whereas a radar does. Radar also bounces and lidar doesn’t bounce very well.


我們不會使用Lidar,Lidar工作在可見光頻率,雷達工作在不可見光頻率。Lidar穿透性不強,無法穿透雨霧,塵埃和雪等雷達擅長的環(huán)境,雷達的反射效果也好于Lidar。

不過這次8.0的發(fā)布也意味著Tesla與Mobileye正式分道揚鑣:

Elon Musk – Tesla CEO

This is all developed in-house. I prefer not to comment specifically on the Mobileye relationship, but this was all done in-house. This is all Tesla software.


所有的開發(fā)都是Tesla自己完成的。我不想評價我們和Mobileye的合作關(guān)系,但是這次8.0系統(tǒng)的自動輔助駕駛是完全由Tesla自己開發(fā)的軟件。

另外在此筆者不妨大膽假設一下Tesla之所以可以在兩年前的Tesla上面更新這套系統(tǒng),估計與Model X發(fā)布時,內(nèi)部CPU Tegra 3進行了一部分升級:

Tesla的主CPU使用了NVIDIA的VCM接口,如下圖右下方的模組:

深度解析:Tesla 自動駕駛的前世今生 (下)

單獨拆下來便是2011-2013年的Model S在MCU部分所采用的Tegra 3主CPU VCM模組:

深度解析:Tesla 自動駕駛的前世今生 (下)

這是Tesla在儀表盤部分使用的Tegra 2 VCM模組:

深度解析:Tesla 自動駕駛的前世今生 (下)

基于NVIDIA的VCM模組是一個通用的可升級模塊,只需要更換這部分即可獲取最新的CPU/GPU而無需大改整個硬件系統(tǒng)。我們可以大膽假設這次更新所需的CPU資源便是來源于升級后的VCM模組,推測是使用了NVIDIA Tegra K1主芯片。當然這只是我的猜測,具體是否使用K1只能通過拆解才能發(fā)現(xiàn),目前暫時沒有拆解照片來驗證。

在NVIDIA的官方網(wǎng)站我們可以找到這樣一個有趣的頁面:http://www.nvidia.com/object/visual-computing-module.html

上面標注的部分就是K1的VCM模組以及Tesla的駕駛儀表盤。

深度解析:Tesla 自動駕駛的前世今生 (下)

Tesla的自動輔助駕駛模組攝像頭部分:

深度解析:Tesla 自動駕駛的前世今生 (下)

可以清晰看見拆解后的模組上面使用的Mobileye EyeQ3芯片:

深度解析:Tesla 自動駕駛的前世今生 (下)

車前端的雷達和超聲波傳感器:

深度解析:Tesla 自動駕駛的前世今生 (下)

駕駛中超聲波傳感器可以實時反饋信息,確定車與周邊障礙物的距離:

深度解析:Tesla 自動駕駛的前世今生 (下)

Tesla采用雷達而放棄主流的攝像頭以及Lidar(激光雷達)的做法看似非常激進。個人對其也是頗多懷疑和好奇,最終這樣做的實際效果如何還得經(jīng)過實踐檢驗,好在兩周后具備Autopilot的Tesla車隊就能收到8.0的OTA更新。從個人Autopilot的駕駛體驗來看,我對8.0是非常期待,在此引用一下我在另一篇關(guān)于自動輔助駕駛體驗部分的結(jié)論:

自動輔助駕駛并非完美,目前的版本依然需要人為控制變道信號以及進出匝道等,對道路的需求也限制在高速和城市,而且一旦遇到稀有的特殊情況,加上人的疏忽大意,可能造成生命財產(chǎn)的損失。 所以作為駕駛者,在享受科技帶來的便利性的同時一定要負責的合理使用,而不是濫用。

深度解析:Tesla 自動駕駛的前世今生 (下)

筆者以為無論什么技術(shù),安全是首要目的,但是無論技術(shù)本身如何安全,用戶都需要:

1. 相信這個技術(shù)
2. 懂得怎么去使用這個技術(shù)
3. 想要使用這個技術(shù)

而Tesla的自動輔助駕駛Autopilot 成功的在這三點上面說服了筆者,據(jù)Tesla官方的數(shù)據(jù),開啟了自動輔助駕駛的Tesla每天積累的里程是500萬公里(特斯拉宏圖之第二篇章),所以顯然筆者的選擇并不孤單,因為有千萬的用戶跟筆者一樣天天在使用自動輔助駕駛。同時啟動輔助駕駛就跟開啟自動巡航一樣簡單:只需要向駕駛員方向快速撥動撥桿就能啟用,往前撥動撥桿,轉(zhuǎn)動方向盤或者剎車都會自動取消自動輔助駕駛。在使用之前,筆者詳細的閱讀了使用教程非常明確該系統(tǒng)的能力以及局限性,所以按照Tesla的要求,規(guī)范的去使用。最開始的幾分鐘是最驚恐的:看著車的方向盤自己轉(zhuǎn)動,反射性的想去控制;看著前車減速,不自覺的把腳伸向剎車;看著車自己變道,超車,心里無不捏著一把汗...但是隨著使用時間的增加,筆者慢慢的放松了緊張,更多的時候是在享受。隨著車自己一次又一次在不同環(huán)境下證明自己,筆者越來越離不開自動輔助駕駛了,有時候哪怕是很短一段路,我都想依靠自動輔助駕駛。

這種感覺就像是第一次使用iPhone的指紋識別touch ID,在其以前我用過很多帶指紋識別的設備,最后無比因為粗劣的用戶體驗而放棄。突然在iPhone上面手指往home鍵一放,直接進入桌面,那種識別率和識別方式的質(zhì)變直接把用戶體驗上升到新的高度:聊天軟件不再紀錄冗長的密碼,銀行app不再需要短信驗證碼,ApplePay輕觸一下掃描指紋就能完成支付... 而Tesla的自動輔助駕駛的體驗就是這樣:上手簡單,功能易用,效果出色。而頻繁的正向反饋又促使樓主進一步去探索和挖掘他的潛力,直到再也離不開自動輔助駕駛。

對很多公司來說,自動駕駛是個先有蛋,還是先有雞的問題:“沒有足夠的數(shù)據(jù),無法做到完美的自動駕駛”,但是,光靠實驗室和研究人員有限的室外測試,數(shù)據(jù)來得又太慢,技術(shù)又無法進步。
這個問題上,Elon帶領(lǐng)下的Tesla選擇了先向公眾開放,再逐步完善的辦法,因為Elon相信目前的自動駕駛安全性已經(jīng)超過人類,既然能救命何不開放給公眾?

此外另一個有意思的數(shù)據(jù)是,Elon在昨天的問答環(huán)節(jié)提到了目前自動輔助駕駛可能導致的潛在事故中,絕大部分是老用戶疏忽大意犯下的:

Elon Musk:

One of the ironies that we’ve seen is counter intuitive and a lot of people on the consumer watchdog sites and in some cases on regulatory sites have assumed that Autopilot accidents are more likely for new users. In fact, it is the opposite. Autopilot accidents are far more likely for expert users. It is not the neophytes. It’s the experts.

我們覺得非常諷刺的事情是:很多消費者觀察網(wǎng)站密切關(guān)注著Tesla自動輔助駕駛的一舉一動,認為自動輔助駕駛中出現(xiàn)的問題更多是針對新手用戶。但事實上正好相反,自動輔助駕駛中的事故絕大部分都是來自于專業(yè)用戶。


They get very comfortable with it and repeatedly ignore the car’s warnings. It’s like a reflex. The car will beep at them, they tug the wheel, the car will beep at them, they tug the wheel, and it becomes an unconscious reflex action. So we will see half a dozen or more, sometimes as many as 10 warning in one hour continuously ignored by the driver. We really want to avoid that situation.


他們非常習慣于自動輔助駕駛帶來的便利并且主動忽略掉車的警告和提示。就想產(chǎn)生了習慣反射,每次車產(chǎn)生報警要求他們手握方向盤,他們就搖動一下方向盤瞞過傳感器,然后繼續(xù)做其他事情,久而久之就變成了肌肉反射。所以我們觀察到這些用戶往往可以在一小時內(nèi)激活6到10次的“請手握方向盤”警告。我們需要改變這種危險的行為。

下圖中正是Tesla在自動駕駛中發(fā)出警告提示駕駛員手握方向盤:

深度解析:Tesla 自動駕駛的前世今生 (下)

所以筆者反對那些在自動輔助駕駛評測和體驗中不負責任和不顧安全的行為。應該在充分知曉自動輔助駕駛性能和限制的前提下,合理使用自動輔助駕駛,同時希望Tesla繼續(xù)改良自動輔助駕駛,使其更加完善,直到真正的自動駕駛實現(xiàn)。

所以回到最上面的問題,究竟是Google式的閉門造車一口氣實現(xiàn)Level 4的自動駕駛好,還是Tesla式的從Level 2一路向Level 4自動駕駛循序漸進好?

如果用Elon Musk自己的話來說:

我們目前的自動輔助駕駛已經(jīng)被證明能提供比手動駕駛安全性,在道路致死率上面是世界平均水平的1/3。即便是退一萬步來講,我們的系統(tǒng)只比人工好1%,那么一年車禍導致的120萬人里面,我們也能拯救1萬2千人。


所以我覺得如果你有這樣一個提高安全的技術(shù),僅僅因為怕輿論或者法律起訴就雪藏起來,這在道德上是錯誤的。

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

分享:
相關(guān)文章

專欄作者

Ryan Woo,曾擔任中科院計算技術(shù)研究所交互設計師,現(xiàn)在硅谷擔任計算機軟件工程師。強烈的細節(jié)控,附帶考據(jù)癖加成的器材撫摸黨/主機+PC通吃高玩/硅谷碼農(nóng)/前交互設計師。
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說