0
雷鋒網(wǎng)注:本文作者李星宇,地平線智能駕駛商務(wù)總監(jiān)。畢業(yè)于南京航空航天大學(xué),獲得了自動化學(xué)院測試儀器及儀表專業(yè)的學(xué)士和碩士學(xué)位;曾任飛思卡爾應(yīng)用處理器汽車業(yè)務(wù)市場經(jīng)理,原士蘭微電?安全技術(shù)專家,有13年半導(dǎo)體行業(yè)從業(yè)經(jīng)驗。在加入飛思卡爾的早期,任職于i.MX應(yīng)用處理器研發(fā)團(tuán)隊,在該領(lǐng)域取得一項NAND Flash存儲應(yīng)用美國專利。在士蘭微電子負(fù)責(zé)安全芯片的公鑰加密引擎設(shè)計,該引擎的RSA/ECC加解密性能處于國內(nèi)領(lǐng)先水平。本文為CES深度分析第三篇,雷鋒網(wǎng)授權(quán)發(fā)布。
一、決策算法成為競爭焦點
從技術(shù)角度講,自動駕駛由三大主要技術(shù)構(gòu)成:感知、決策和控制。現(xiàn)在自動駕駛技術(shù)真正的門檻在哪里?
地平線自動駕駛技術(shù)架構(gòu)
如果你去CES參觀各家公司的自動駕駛樣車,你會發(fā)現(xiàn)一個趨勢:各家公司的傳感器配置越來越趨同化:前視多目攝像頭,77GHz長距/短距雷達(dá)、環(huán)視攝像頭、加上十個以上的超聲波雷達(dá),豪華一點的再配上幾個低線束的激光雷達(dá),這些傳感器的供應(yīng)商也差不多。在感知層面,隨著ADAS的大量部署和長時間的技術(shù)開發(fā),已經(jīng)相當(dāng)成熟,可以說感知技術(shù)已經(jīng)不是主要的瓶頸。而控制則是傳統(tǒng)車廠和Tier1非常擅長的領(lǐng)域,做了很多年,積累了大量的經(jīng)驗。
自動駕駛在技術(shù)上的競爭,主要聚焦于決策環(huán)節(jié)。事實上,區(qū)分一個系統(tǒng)是ADAS還是自動駕駛,也主要是看該系統(tǒng)是否有決策部分。無論是谷歌,還是特斯拉,他們的核心競爭力,都還是體現(xiàn)在其決策算法方面。
傳統(tǒng)汽車界的研發(fā)是基于功能安全的設(shè)計方法學(xué)建立的,滲透到開發(fā)流程的每一個環(huán)節(jié),并且在過去一個世紀(jì),將汽車的安全性提高到了極高的水準(zhǔn),如今,頂尖的公司已經(jīng)可以確保汽車發(fā)動機(jī)能使用一百萬公里!但是面對洶涌而至的機(jī)器學(xué)習(xí)熱潮,傳統(tǒng)汽車界突然發(fā)現(xiàn)自己嚴(yán)重缺乏技術(shù)儲備,面對特斯拉和谷歌激進(jìn)的策略,顯得力不從心。這已經(jīng)成為制約傳統(tǒng)車廠開發(fā)自動駕駛的最大短板,目前,傳統(tǒng)車廠或者大肆收購機(jī)器學(xué)習(xí)公司,或者與其合作,他們需要盡快補(bǔ)上這塊短板。
傳統(tǒng)車廠出身的克拉富西克顯然深知這一點,在他出任Waymo CEO之后,谷歌一改之前模棱兩可的商業(yè)策略,明確表示向車廠提供解決方案,并迅速宣布和本田合作,事實上是將自己定位在Tier 1的角色,此前谷歌雖然在技術(shù)積累上處于領(lǐng)先位置,但一直沒有確定可行的商業(yè)模式,克拉富西克的到來,讓谷歌對于商業(yè)化的態(tài)度更接地氣,也更精準(zhǔn)。在該解決方案中,硬件基本也是外購的,顯然無法成為谷歌的競爭壁壘,最有價值的,還是一整套經(jīng)過驗證的軟件,尤其是其中的決策算法??梢韵胂蟮氖牵雀鑼驑I(yè)界提供軟件授權(quán),就像它之前在安卓系統(tǒng)上所做的一樣。
二、理性決策是必然趨勢
決策算法面臨的最大挑戰(zhàn),就是如何達(dá)到自動駕駛所需要的極高的安全性和可靠性。自動駕駛決策的結(jié)果會輸出到控制器,根據(jù)ISO26262已有的功能安全的規(guī)定,這會反過來要求決策系統(tǒng)也需要達(dá)到ASIL-D的標(biāo)準(zhǔn)。目前,ISO組織對專門針對自動駕駛的功能安全標(biāo)準(zhǔn)正還在制定中,有可能會用一種新的標(biāo)準(zhǔn)進(jìn)行考量,但功能安全的基本原則依然有效。
1、端到端的AI方法有隱患
這意味著,我們必須嚴(yán)肅地思考,如何才能滿足功能安全的要求?對于谷歌、百度以及許多初創(chuàng)公司,這些非傳統(tǒng)車廠出身的玩家來說,是一個全新的命題。
目前,很多創(chuàng)新公司都在使用深度學(xué)習(xí)加增強(qiáng)學(xué)習(xí)做端到端的訓(xùn)練,也就是說,從傳感器的輸入直接導(dǎo)出控制器(剎車、油門、轉(zhuǎn)向等)的輸出。但深度學(xué)習(xí)的問題在于它失去了透明性,僅僅依賴于概率推理,也就是相關(guān)性,而非因果推理,而這兩者是有本質(zhì)不同的。
相關(guān)并不意味著因果。舉個例子,統(tǒng)計發(fā)現(xiàn),手指頭越黃的人,得肺癌的比例越大。但事實上,手指的顏色和得肺癌的幾率之間顯然沒有直接的因果聯(lián)系。那么為什么統(tǒng)計數(shù)據(jù)會顯示出相關(guān)性呢?這是因為手指黃和肺癌都是由吸煙造成的,由此造成了這兩者之間產(chǎn)生了虛假的相關(guān)性。
深度學(xué)習(xí)就像一個黑盒子,無法進(jìn)行分析,出了事情你不知道原因到底是什么,也沒有辦法預(yù)測下一次會出什么狀況,有一個很搞笑的例子,用深度學(xué)習(xí)訓(xùn)練一個系統(tǒng),來分辨哈士奇和愛斯基摩狗,初步測試效果非常好,但進(jìn)一步的測試表明,這個系統(tǒng)其實是通過區(qū)分背景,而不是狗本身來判定其種類的,因為訓(xùn)練所使用的樣本中,愛斯基摩狗幾乎總是伴隨者雪地的背景,而哈士奇則沒有,想想看,如果這樣的系統(tǒng)應(yīng)用到自動駕駛,是多大的隱患!
深度學(xué)習(xí)的實際表現(xiàn),基本上取決與訓(xùn)練的樣本以及你所要求輸出的特征值,但如果你的樣本比較單一,輸出特征值又比較簡單,則很容易訓(xùn)練出你并不想要的結(jié)果來。就自動駕駛而言,這是無法接受的,它需要高度的理性決策。
如今,深度學(xué)習(xí)的熱潮席卷了整個業(yè)界,很多人不再對基礎(chǔ)算法進(jìn)行鉆研,而是瘋狂加大數(shù)據(jù),堆機(jī)器進(jìn)行訓(xùn)練,以期更快地出成績,結(jié)果看上去還不錯,但這樣的非理性態(tài)度其實是給自動駕駛埋下了隱患。我們需要的是對于事實邏輯的深入分析,已經(jīng)不同方法論的結(jié)合,從這個意義上講,如果用小數(shù)據(jù)可以達(dá)到好的效果,更能說明我們對機(jī)器學(xué)習(xí)技術(shù)的理解能力。
2、基于規(guī)則的專家系統(tǒng)不靈活
傳統(tǒng)的主機(jī)廠和Tier 1面臨的則是另外的問題,如果接觸各大Tier1的ADAS產(chǎn)品,無論是AEB,還是ACC,LKA,你會發(fā)現(xiàn)都是基于規(guī)則的專家系統(tǒng)。這種系統(tǒng)精確可分析,但專家系統(tǒng)的問題在于,但場景非常多變時,創(chuàng)建的規(guī)則就無法保證足夠的覆蓋面,結(jié)果,當(dāng)添加更多新的規(guī)則時,就必須撤消或者重寫舊的規(guī)則,這使得這個系統(tǒng)變得非常脆弱。
并且,各個功能都有自己單獨的規(guī)則,組合到一起,其可能性就非常多,甚至還存在矛盾,這使得ADAS向自動駕駛過渡之路變得更加艱難。我曾經(jīng)跟一家主機(jī)廠在交流他們的決策系統(tǒng)詢問過這個問題,得到的答案是:這種基于專家系統(tǒng)的規(guī)則經(jīng)過組合,能產(chǎn)生一萬種可能!你甚至很難對這個系統(tǒng)進(jìn)行完整的測試。
3、新的決策機(jī)制:因果推理
因此,我們需要在自動駕駛領(lǐng)域引入新的決策機(jī)制。自動駕駛決策技術(shù)路線的一個重大趨勢,就是從相關(guān)推理到因果推理。這樣的人工智能框架是Judea Pearl在八十年代建立的,他也因此拿到了圖靈獎。
上世紀(jì) 80 年代初,Judea Pearl為代表的學(xué)術(shù)界出現(xiàn)了一種新的思路:從基于規(guī)則的系統(tǒng)轉(zhuǎn)變?yōu)樨惾~斯網(wǎng)絡(luò)。貝葉斯網(wǎng)絡(luò)是一個概率推理系統(tǒng),貝葉斯網(wǎng)絡(luò)在數(shù)據(jù)處理方面,針對事件發(fā)生的概率以及事件可信度分析上具有良好的分類效果。它具有兩個決定性的優(yōu)勢:模塊化和透明性。
地平線自動駕駛決策機(jī)制
模塊化的優(yōu)勢非常重要,例如,假如任務(wù)是更新汽車的變速箱,當(dāng)變速箱被更換的時候,你不必重寫整個傳動系統(tǒng),只需要修改為變速箱建模的子系統(tǒng),其余的都可以保持不變。
因此,我們可以把深度學(xué)習(xí)的系統(tǒng)作為一個子模塊融入到其中,專家系統(tǒng)可以是另一個子模塊,也融入其中,這意味著我們有了多重的冗余路徑選擇,這種冗余構(gòu)成了貝葉斯網(wǎng)絡(luò)的子節(jié)點,將有效強(qiáng)化輸出結(jié)果的可靠性,避免一些低級錯誤的發(fā)生。
透明性是貝葉斯網(wǎng)絡(luò)的另一個主要優(yōu)勢。對于自動駕駛而言,這尤為關(guān)鍵,因為你可以對整個決策的過程進(jìn)行分析,了解出錯的哪一個部分。
可以說貝葉斯網(wǎng)絡(luò)是理性決策的極佳實現(xiàn),適合用于設(shè)計整個決策的頂層框架。
因果推理的另一個典型范例就是基于增強(qiáng)學(xué)習(xí)的決策框架,它把一個決策問題看作是一個決策系統(tǒng)跟它所處環(huán)境的一個博弈,這個系統(tǒng)需要連續(xù)做決策,就像開車一樣。優(yōu)化的是長期總的收益,而不是眼前收益。這有點像巴菲特的價值投資,優(yōu)化的目標(biāo)不是明天的收益,而是明年或者十年以后的長期總收益。
谷歌把這樣的框架用在下圍棋上,取得了革命性的成功。自動駕駛的場景也非常適合應(yīng)用這樣的決策系統(tǒng)。比如說要構(gòu)建價值網(wǎng)絡(luò),評估當(dāng)前的駕駛環(huán)境風(fēng)險,評估的是從現(xiàn)在時間到未來時間的整體風(fēng)險;然后利用策略網(wǎng)絡(luò)輸出本車的控制決策,選擇最優(yōu)的駕駛路徑和動力學(xué)輸出。
同時,我們還可以構(gòu)建一個基于模擬路況的仿真環(huán)境,通過增強(qiáng)學(xué)習(xí)去做虛擬運行,獲得最優(yōu)的決策模型,并且還將產(chǎn)生大量的模擬數(shù)據(jù),這對決策算法的成熟至關(guān)重要。
可以說,向因果推理型決策模型轉(zhuǎn)化是自動駕駛技術(shù)邁向成熟的重大標(biāo)志。
相關(guān)閱讀:
CES深度分析:自動駕駛產(chǎn)業(yè)化邁向縱深(二)
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。