0
本文作者: 張馳 | 2017-10-02 12:40 |
Roadstar.ai原型車的內(nèi)部視角
硅谷的9月28日上午,雷鋒網(wǎng)編輯坐上了一輛頂著7個激光雷達的林肯MKZ。它遠遠就看到了路口的紅綠燈,車內(nèi)的大平板上對應的交通燈被一個紅框圈出來。MKZ繼續(xù)往前開了一段,穩(wěn)穩(wěn)地停在了路口。一大群學生模樣的年輕人從車前的斑馬線走過,并不斷回頭看這臺頂著裝置的新車。
綠燈亮起,我們乘坐的這輛MKZ起步并按照預定路線右拐。一路上,道路右側有遛狗的人、踩著滑板的人,還有逆行的自行車。我們的車按照30英里的時速在蘋果的后花園Cupertino行駛了一圈,然后回到了出發(fā)時的車庫門口。
你或許已經(jīng)猜到了,這是一輛自動駕駛原型車。
這輛車來自Roadstar.ai,這是一家今年5月成立,橫跨硅谷與深圳兩地的自動駕駛公司。公司三位聯(lián)合創(chuàng)始人佟顯喬(CEO)、衡量(CTO)、周光(首席機器人專家),曾供職于Google、蘋果、特斯拉、英偉達、百度等公司,擁有豐富的自動駕駛經(jīng)驗。
佟顯喬在今年6月接受雷鋒網(wǎng)采訪時稱,公司的目標直指L4級別自動駕駛,希望成為中國最強戰(zhàn)隊。在約3個月后,Roadstar.ai的原型車初步成型。上文就是我們近日體驗了原型車后的感受,雷鋒網(wǎng)也是除公司員工外首批體驗原型車的外部人士,并在試乘后與三位聯(lián)合創(chuàng)始人聊了聊背后的技術細節(jié)。
下面是路測視頻:
實現(xiàn)自動駕駛有多種技術路徑,比如以攝像頭為主的方案(特斯拉、AutoX),和以64線激光雷達為主的方案(Waymo、百度)。Roadstar.ai解決自動駕駛技術瓶頸的方案是多傳感器深度融合。衡量表示,它不以某一種傳感器為主,而是包括了多個激光雷達之間的融合,多個攝像頭之間的融合,以及激光雷達與攝像頭、毫米波雷達的融合。
Roadstar.ai原型車上的“車頂盒”
雷鋒網(wǎng)見到那款MKZ原型車上,頂部有一個被稱為“車頂盒”的方形架子,有車身寬,約30多厘米高。架子上布置了7個Velodyne的16線激光雷達,三個攝像頭,以及一個毫米波雷達。7個激光雷達在同一平面排列成一個鈍角三角形,最外的兩個朝車身兩邊傾斜,中間四個水平放置,頂上的那個最為奇特,是垂直放置躺著旋轉的。
周光表示,最終的方案不會是這么大的一個傳感器,而是會嵌入車體,比如激光雷達可以安裝在車頂?shù)乃膫€角。“我們有一套基于機器學習的實時標定方法,車輛行駛時可以做自動校準,激光雷達可以隨便放置。”
多傳感器融合倒也并不獨特。從目前已經(jīng)曝光的圖片來看,通用與Cruise在兩周前宣布推出的全球首款可量產(chǎn)自動駕駛車,就是用的這種方案;硅谷知名的自動駕駛公司Drive.ai,以及一直保持低調(diào)的Zoox也是如此。曾供職于蘋果自動駕駛部門的佟顯喬告訴雷鋒網(wǎng),蘋果也是用的多傳感器融合方案。
Cruise的第三代可量產(chǎn)自動駕駛車,用了多顆激光雷達分布式布局
Drive.ai的原型車,車頂有6個16線Velodyne激光雷達
蘋果的新版原型車(也有猜測為高精地圖采集車),頂上有十多個激光雷達
周光稱,這是因為各家已經(jīng)逐漸“摸索出了正確的道路”。
他認為,自動駕駛是一項具有長尾效應的系統(tǒng)工程,由于現(xiàn)實路況過于復雜,以至于99%的精力可能都會用于解決那1%的問題。多傳感器融合就是解決這種長尾效應的方法,畢竟異構傳感器則可以互相彌補缺點,而如果用同質(zhì)的傳感器,再多也沒用,因為缺點是一致的。
他還舉了一個例子,就像人臉識別早已很普及了,但往往會受光照和裝扮的影響,但蘋果Face ID添加了一加了一層深度信息后,就能讓身份驗證更安全。多傳感器融合也是同樣的道理。
另一方面,佟顯喬表示,采用多傳感器融合架構,也是考慮到了自動駕駛車輛的商業(yè)化。
對于目前的L4自動駕駛方案而言,激光雷達高昂的價格是一個挑戰(zhàn),甚至在原型車的成本中,它往往要占比超過50%。他表示,64線的Velodyne激光雷達單個價格達8萬美元,而使用多傳感器融合方案,即使采用6顆16線產(chǎn)品,價格也只是48000美元(每個8000美元),便宜了將近一半。如果采用國產(chǎn)激光雷達,價格甚至可以再降低至少一半。
另一方面,業(yè)內(nèi)普遍認為激光雷達的未來趨勢是固態(tài)激光雷達,據(jù)稱明年初即可開始見到單價2000美元的量產(chǎn)型號。而固態(tài)產(chǎn)品在2-3年內(nèi)取代機械旋轉式后,單個價格還可以降到500-1000美元。
而固態(tài)激光雷達是非旋轉式,只能覆蓋一定范圍的區(qū)域,需要多個同步才能實現(xiàn)對周圍空間的全面覆蓋。所以使用固態(tài)激光雷達必須使用多傳感器融合方案。
佟顯喬還預測,使用多傳感器融合方案,并考慮未來固態(tài)激光雷達帶來的成本下降,2018年自動駕駛系統(tǒng)的成本會在50萬左右,2019年還會降到30萬以內(nèi),在2020年甚至會降到8萬以內(nèi),讓技術更為普及。
雖然多傳感器融合的重要性不言而喻,但衡量認為,并非所有人都能做好。
他解釋稱,這是因為異構傳感器的原理不一樣,會導致采樣速率、對空間的描繪和信息表達方式也不一樣,而怎么把不同的信息結合起來變得一致,做到時間空間同步,以及信息表達同步,這非常困難。融合不是傳感器的堆疊,“融合不好,反倒會成為干擾”。
Roadstar.ai將自己的融合方案稱為“DeepFusion”,這一方面是指用到了深度學習等技術,另一方面是指觸達了更深層次的數(shù)據(jù)信息。
衡量告訴雷鋒網(wǎng),多傳感器融合可分為前融合與后融合。后融合是指每個傳感器分別生成物體列表,比如用攝像頭的數(shù)據(jù)生成一個檢測到的物體列表,同時用激光雷達的點云數(shù)據(jù)也產(chǎn)生一個列表,然后兩者再做融合。他們采用的則是前融合,它會從原始數(shù)據(jù)的層級把多種傳感器的數(shù)據(jù)融合。
“我們會用圖像的RGB數(shù)據(jù)加上激光雷達與毫米波雷達的深度信息,先融合成新的數(shù)據(jù)形式,再用算法產(chǎn)生物體列表?!?/p>
衡量表示,從信息論的角度看,前融合對信息的利用更為充分,信息也沒有丟失。
他此前曾在斯坦福GPS實驗室做衛(wèi)星導航,而導航領域很早就開始做融合,比如將非??煽康欣鄯e誤差的慣性導航,與易受干擾但無累積誤差的GPS定位做融合,對于從原始數(shù)據(jù)的層級做合并已經(jīng)輕車熟路。
Roadstar.ai今年5月才成立,佟顯喬表示,這個時候開始做肯定是要有特別的優(yōu)勢,要走新的路線,達到事半功倍的效果。這條路線就是多傳感器融合,而且“大家都逐漸意識到這是一個正確的方向,最終各主要玩家也會趨同,而我們目前是領先的”。
高精度地圖
雷鋒網(wǎng)體驗Roadstar.ai的原型車時發(fā)現(xiàn),其系統(tǒng)對紅綠燈的識別極為準確,甚至在人眼還未看到時,就已經(jīng)識別出來了。衡量解釋稱,這是因為高精度地圖對交通標識的定位很準確,從而降低了識別的難度。
在自動駕駛時代,地圖服務的對象不再是人,而是機器,因而也需要重新定義。毫無疑問,高精度地圖的第一個關鍵字是“精”,既精確且不斷更新的三維數(shù)據(jù)。精度上要做到厘米級,因為傳感器的精度以及系統(tǒng)對物體辨識和識別都要厘米級,有了足夠的精度,地圖提供的數(shù)據(jù)才有用。
衡量告訴雷鋒網(wǎng),高精度地圖的第二個關鍵,是提供感知與定位所需的特征的有效表示,而這也是他們的優(yōu)勢所在。
Roadstar.ai的厘米級精度三維地圖,圖片來自Roadstar.ai
“傳統(tǒng)地圖與高精度地圖在工具鏈、生產(chǎn)流程不一樣,目的、地圖表達方式和數(shù)據(jù)來源也不一樣,Google地圖部門與自動駕駛的地圖部門就是分開的。前者是一個大規(guī)模數(shù)據(jù)庫快速查詢的問題,但對后者來說,更關鍵的是地圖怎么生成,怎么有效表示,怎么盡量減少存儲空間,這是我們的長處。”
高精度地圖分為不同的層級,有與駕駛相關的語義信息層級(如車道線、停止線和十字路口、交通規(guī)則等信息),還有更高層次的感知與定位的層級,用來做車輛的感知與定位。
他認為,只有做感知與定位算法的自動駕駛公司,才更懂得怎么做地圖特征的提取。因為把原始點云數(shù)據(jù)存下來不現(xiàn)實,需要壓縮并減少數(shù)據(jù)量。
對于高精度地圖,Roadstar.ai還沒想成為提供商,但可以向其它公司提供地圖生成的算法,幫助加工。
那么在原型車出來之后,接下來應該做什么?
周光表示,數(shù)據(jù)還是很重要。在發(fā)揮現(xiàn)有技術和架構的優(yōu)勢,達到不錯的效果后,還是要采數(shù)據(jù),擴大規(guī)模。他認為,有些場景很難出現(xiàn),要大量重復路測采集才能覆蓋更多的路況。雖然機器學習的效率會提高,對數(shù)據(jù)量的要求也會降低,但自動駕駛會呈現(xiàn)迭代的過程,需要通過運營來采集數(shù)據(jù),最終擴大到更廣泛和復雜的場景。
目前,Roadstar.ai已經(jīng)與華夏幸福合作,明年會在南京溧水區(qū)有小范圍的自動駕駛車輛運營。另外,據(jù)稱關于自動駕駛的商業(yè)化路徑,他們進行了調(diào)研,會在接下來的1-2個月內(nèi)披露具體的商業(yè)計劃。雷鋒網(wǎng)會保持持續(xù)關注。
附雷鋒網(wǎng)與Roadstar.ai采訪節(jié)選:
在大公司的經(jīng)歷帶來了什么影響?
團隊成員之前在蘋果、英偉達、Google、特斯拉、百度等任職,是取各家之所長。各家的思路不同,傳感器和架構也很不同。蘋果用的就是多傳感器融合方案;特斯拉是量產(chǎn)中ADAS最好的,它是車廠的思路,會從整車的設計成本出發(fā),限制自動駕駛系統(tǒng)的成本,這決定了它不會有更貴的傳感器,而是以攝像頭為主;Google算法較為成熟,但過于依賴激光雷達且成本昂貴。我們希望做到比Waymo更好的性能,但成本要低。
為什么會認為多傳感器融合方案要優(yōu)于Google/Waymo?
Google通過近十年的努力,其實已經(jīng)證明無人駕駛技術是能做成功,是可行的,而且基本已經(jīng)可以商用了。但它既有先發(fā)優(yōu)勢,也有先發(fā)劣勢。
Google把以激光雷達為主的技術路線走到了極致,在它最開始做自動駕駛的那些年,圖像識別技術還不夠成熟,只能依靠激光雷達。但這種時代特色與背景,讓新方法沒有在其技術上體現(xiàn)出來,而這也是新興公司的機會。Google自研的激光雷達性能非常突出,但這一傳感器目前成本降低還有很長一段時間。
L4級別自動駕駛的時間已經(jīng)到了嗎?
其實Google已經(jīng)證明全自動駕駛技術是可行的,它可以做到平均行駛5000英里才需要人類接管一次,基本已經(jīng)可以商用。但它比較保守,畢竟是第一個吃螃蟹的。現(xiàn)在從特斯拉Autopilot的情況來看,即使出現(xiàn)了一些事故,大家也沒有失去信心。那其實可以膽子大一點,讓自動駕駛在一定范圍內(nèi),在限定條件下先運營起來。
你們的目標是L4,那對一些更為限定的自動駕駛應用會考慮嗎?
特殊場景的自動駕駛確實會比乘用車率先實現(xiàn),因為情況比較簡單。我們設計的時候,每個傳感器和每個模塊都是抽象的,可以任意替換。我們技術的一個子集可以用在簡單的場景下,不用重新開發(fā),比如針對礦山車,可以降低配置,或用更簡單的算法,和低成本的計算平臺。
一開始就做最難的場景,對于簡單場景不必重新做。
你們的原型車剛出來不久,數(shù)據(jù)較少會是一個弱點嗎?
深度學習確實是數(shù)據(jù)驅(qū)動的算法,但我們的深度融合算法(DeepFusion)提高了數(shù)據(jù)的使用效率,使得我們新的端到端模型對數(shù)據(jù)的依賴降低了一個數(shù)量級。現(xiàn)在的架構用幾千張圖可能就可以實現(xiàn)普通方式十幾萬張圖的效果。我們的模型現(xiàn)在是幾千張點云加圖像數(shù)據(jù)融合在一起訓練,對數(shù)據(jù)的利用特別高效。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知。