5
本文作者: 陳圳 | 2016-10-12 18:32 |
雷鋒網按:本文系圖森互聯CTO侯曉迪書面回復新浪科技駐硅谷記者貓叔約訪,貓叔在文章中引用了侯曉迪主要觀點。雷鋒網已獲原作者授權發(fā)布,如需轉載請聯系授權。
手機破得再溜,也不代表他能做好無人駕駛,就像鄧亞萍乒乓球打得再好,也不代表她會做搜索引擎。先按演講時間順序過一遍George Hotz在2016年9月13日TechCrunch這場發(fā)布會的主要內容。
不知道是不是為了博人眼球, George Hotz在一開場就語出驚人地列出了幾家“搞笑”無人駕駛公司,首當其沖的就是Mobileye。他這樣評價:
Their business model is to work with regulators to lower the safety ratings of cars that do not having Mobileye chip in them.
Mobileye的商業(yè)模式,就是通過和立法者同流合污,來降低沒安裝Mobileye芯片的汽車的安全評級。
誰要是能通過這么奇葩的商業(yè)模式,能讓一個公司17年不倒閉,反倒有90億美元的市值,那才是人間奇跡。
而事實上,Mobileye自從2001年第一代芯片以來,他們所提供的輔助駕駛、半自動駕駛系統(tǒng),一直是世界上你能買到的性能最好的產品,沒有之一。
特斯拉的無人駕駛,也正是用的Mobileye家的EQ3解決方案,并且這里有樁軼事,早在2015年底,特斯拉就針對彭博社對的不實報道,寫過一篇打臉文章以正視聽,文章最后一句是這么說的:“Mobileye的視覺芯片是世界上最好的,正因為如此,我們才選擇它。”
然后George Hotz接著語出驚人:
Because Tesla is too innovative and it scared them (Mobileye). After the accidents Mobileye gets scared. They want no part of innovation.
因為特斯拉太有創(chuàng)新精神,嚇到Mobileye了。所以出事之后,他們干脆舉手投降不再創(chuàng)新了。
這就更是無腦黑了。Tesla和Mobileye的合作是因為合同到期,雙方不再續(xù)約。
Mobileye 創(chuàng)始人CEO對此曾經表態(tài),Tesla有意無意地讓人把輔助駕駛當成自動駕駛來用,這并不是Mobileye的本意,而且現階段技術確實還做不到自動駕駛,故而不再續(xù)約。
但如果從更深層講,這兩家分手其實本來也是必然的。體量如Tesla這樣的公司,必定不可能長期通過跟其他公司,而且是當前世界上擁有獨一無二技術的公司合作,來構建自己的核心競(xue)爭(tou)力。
在黑完一眾汽車公司之后,George Hotz隆重地從黑口袋里掏出他的駕駛模塊:
Comma one – this is all you need to drive a car
逗——自動駕駛,有它就行。
然后淡淡地補了一句
All you need to drive a Honda car with limited self-driving capabilities
有它就能自動駕駛自帶車道保持系統(tǒng)的本田轎車。
聽到這里我一口老血險些吐到鍵盤上。作為自動駕駛人工智能公司的CTO,我早就圍觀過本田的車道保持系統(tǒng)(Lane Keeping Assist System, LAKS)。
簡單來說,這個系統(tǒng)可以在車速45 miles以上,路面環(huán)境清晰的時候,自動開車。
——是的,在車道線彎曲的情況下,還會自動轉動方向盤。
——是的,前面車速變慢的時候,還能自動減速。這是本田以及很多其他車廠商自帶的另一項叫做Adaptive Cruise Control的功能。
等等這不已經是描述的自動駕駛嗎?
但為什么本田從來沒有在TechCrunch Disrupt大會上宣稱自己能做自動駕駛?因為畢竟作為負責任的汽車大廠,不能賭乘客身家性命做PR。
本田在推這個產品的時候,要求駕駛員必須把手放在方向盤上,而且還老老實實地把自己做不到的場景都列出來了:
車道線看不見的時候,LAKS功能不可用;
車速低于45英里的時候,LAKS功能不可用;
車道彎曲過大的時候,LAKS功能不可用;
打轉向燈的時候,LAKS功能不可用;
踩剎車以后,LAKS功能不可用;
在這么多限制條件下,臉皮稍微薄一點的人,自然不會說自己能做自動駕駛。
事實上,目前除了采用LiDAR的Google和百度,還沒有任何人聲稱基于機器視覺能夠實現自動駕駛。
畢竟沒實測過的產品(而且也不敢自己測),不知道這五個限制中,他能突破哪幾個。但會上他提到一個細節(jié):
Car’s built-in front radar… and one front facing camera, which is the same as what Tesla’s using for autopilot.
(逗一Comma one的輸入包括)車內預裝的前向雷達,以及單目前向攝像頭;配置和Tesla一樣。
這也就是說,逗一無法觀察到車兩側和后方的任何信息!換句話說,逗一所謂的“自動駕駛”,很可能根本連換道都做不了。
更可怕的是,逗一要安裝在后視鏡的位置上,也就是說上車以后再想后悔切手動都來不及。
當然George Hotz自己后來也承認,逗一的所謂自動駕駛,還是要人看著的:
You have to pay attention, and you have to be ready to take over it at every moment.
(用逗一的時候)你還是得每時每刻留著神,隨時準備切換成手動開車。
那你一開始黑Mobileye黑的那么起勁兒是幾個意思?!
再接下來進入技術環(huán)節(jié)了。主持人先講fleet learning(通過在同一路線上行駛的歷史數據,增強在這段路上自動駕駛的可靠性)。George Hotz不無自豪地點出自己和Mobileye (Tesla) 的區(qū)別:
When we ship this our fleet learning will be much much fancier than Tesla’s, because we have all the videos data. Tesla just has Mobileye feature vector and the radar.
等逗一發(fā)貨以后,我們的道路學習能力就要比特斯拉不知高到哪里去了,因為我們有全部原始視頻數據,相比之下Tesla只有Mobileye(算法處理過的)特征向量和雷達數據。
聽到這里,我已經不知該做出什么表情了,數據比別人更原始,并不是什么值得炫耀的事情。反倒會帶來從傳輸到存儲的各種工程問題。而且最關鍵的不是數據有多原始,而是算法怎么處理這些數據。
于是接下來,George Hotz這樣解釋他的算法:
It’s deep learning. It uses the camera to try to predict what a human would do in this situation. And if it predicts something reasonable - it has an internal test for reasonability – it takes that path.
Our car has only 2000 lines of code, but it also has a 5MB model that was learned using machine learning, and you can effectively think of the model as code. This thing was generated with deep learning, which is encoding all of those edge cases in it. The reason that we can do it so quickly is because we have the data. The reason that we can do it with so few lines of code is because that we have such advanced machine learning
這就是深度學習。根據攝像頭輸入來預測人類駕駛員會對當前場景做出何種動作。如果算法預測出來的動作靠譜(內部有額外檢查機制——后文還會提到)就控制汽車執(zhí)行。
我的模型有2000行代碼,還包括一個學出來的5MB模型文件。這個模型你可以理解為它就是代碼。它是深度學習學出來的,可以包括各種極端情況。我們之所以只花幾個月就做出這個系統(tǒng),是因為我們有大量數據,我們之所以只寫了2000行代碼,是因為機器學習非常先進。
講真,我這輩子見過的所有心安理得地跳過全球公認技術難點,聲稱自己解決全部問題的,統(tǒng)統(tǒng)都是民科。
George Hotz大概是剛讀完《21天實戰(zhàn)Caffe》就以為自己已經領悟了深度學習的真諦。但是,這是錯覺,這不是科學。
接下來主持人又問起這套系統(tǒng)的安全性,George Hotz很有信心地答道:
First of all, our car has very strict torc limits, on how much it can turn the steering wheel, and how hard one can hit the brakes…
That’s really how we can guarantee safety
我們對算法輸出的扭矩有非常嚴格的限制,不至于猛打方向盤或者急剎車。這樣我們才能保證安全。
原來這就是他剛才提的 “額外檢查機制internal test for reasonability”。要知道,Tesla自動駕駛至今為止撞的那幾次,沒有一次是因為你剎車或者轉向不夠溫柔造成的!
據稱,他們的訓練數據只有30萬英里,7900小時。拜托,這點數據在自動駕駛圈子里,提起來就讓人不好意思。要知道,Tesla在首撞之前,可是已經安全行駛了1.3億英里。
George Hotz的駕駛解決方案,不論如何改頭換面加上big data, deep learning等熱詞,其實學術上都早已有定論。近些年人們習慣管這套做法叫 端到端的學習end-to-end learning,更早些還有模仿學習 imitation learning 等其他別名。
這類方法一大局限是,只能應付見過的輸入類型。如果在實測的時候,遇到的情況和訓練數據差太遠,超過模型不變性(invariance)所能容忍的上限,這樣的系統(tǒng)分分鐘給跪。
就連卷積網絡發(fā)明人,Facebook AI Research帶頭人 Yann LeCun楊立昆教授,都點評過這種拿end-to-end learning做自動駕駛的思路:
Training a basic ConvNet to keep you in lane most of the time is fairly simple and straightforward. The problem is to make it work reliably.
The basic technique of training a neural net to keep you in lane was Dean Pomerleau at CMU in the late 1980s, a system called ALVINN. I used imitation learning to train a ConvNet for a self-driving robot called DAVE back in 2003. This work motivated the DARPA LAGR program.
What this guy is doing may be cool, but it isn't particularly innovative.
訓練個基礎版卷積網絡做車道線保持沒什么難度,難點在于可靠性。
早在八十年代,卡耐基梅隴大學的Dean Pomerleau就提出了用神經網絡做車道線保持的基本模型,叫ALVINN。2003年,我用這種以模仿來學習的方式,拿卷及網絡搭出過一個自動行駛機器人DAVE。后來,美國國防部高等研究計劃署的LAGR項目就是源自這里。
這哥們兒的工作炫酷有余,創(chuàng)新不足。
試想一個主要在加州采數據的系統(tǒng),它有見過幾次下雨下雪?見過開夜車時候迎面來的遠光燈嗎?見過兔子、野豬、麋鹿站在路中間嗎?見過行人、自行車橫穿馬路嗎?更不要說讓只有5MB模型文件的自動駕駛,來見識北京著名地標西直門立交橋了。
雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知。