0
本文作者: 大壯旅 | 2017-12-27 09:32 |
雷鋒網(wǎng)按:在即將到來的 CES 2018 之后,雷鋒網(wǎng)將在美國(guó)科技的大本營(yíng)硅谷舉辦 GAIR 硅谷智能駕駛峰會(huì)。目前圣誕特惠票依然開放預(yù)訂中。本次峰會(huì)將有數(shù)十家中美兩地頂尖的自動(dòng)駕駛團(tuán)隊(duì)在峰會(huì)現(xiàn)場(chǎng)演講分享,此外將有近百家自動(dòng)駕駛產(chǎn)業(yè)鏈公司在現(xiàn)場(chǎng)交流。詳情請(qǐng)?jiān)L問 https://gair.leiphone.com/gair/gairsv2018。
我們先進(jìn)入假想狀態(tài):在一個(gè)陽光明媚的日子,你坐在剛買的自動(dòng)駕駛汽車一路向南疾馳在高速上。解放了雙手的你愜意的享受著路邊的美景和車內(nèi)的零食,但在一個(gè)上坡路段,突然出現(xiàn)了一輛向北行駛的校車,它突然轉(zhuǎn)向朝你沖來。這時(shí)你的車已經(jīng)沒時(shí)間剎停,你也無法控制方向盤完成緊急變線。
這時(shí),你乘坐的自動(dòng)駕駛汽車有三種選擇:
A. 緊急轉(zhuǎn)向沖向樹林,這樣也許會(huì)救了校車和乘客,但可能會(huì)讓你丟了小命;
B. 緊急變線進(jìn)入對(duì)向車道,保證自己的安全,犧牲校車司機(jī)和孩子們;
C. 直接撞向校車,大家“同歸于盡”。
在日常駕駛中,這種極端情況很少會(huì)出現(xiàn)。不過,對(duì)于自動(dòng)駕駛汽車而言,這樣的情況一旦發(fā)生就必須有應(yīng)對(duì)措施。因此,做一個(gè)艱難的道德選擇勢(shì)在必行。
過去幾年中,各家公司在自動(dòng)駕駛領(lǐng)域已投入超過 800 億美元,除了大家耳熟能詳?shù)?Waymo、Uber 和特斯拉,底特律巨頭們也正在抓緊追趕。
這種曾經(jīng)只存在于科幻電影中的產(chǎn)品可能幾年后就會(huì)從我們身旁擦身而過,因此這個(gè)艱難的道德選擇已經(jīng)不再是停留在理論階段的空想。
自動(dòng)駕駛汽車的到來確實(shí)令人興奮,它會(huì)讓通勤變得更輕松,把堵車?yán)速M(fèi)的時(shí)間還給每個(gè)人。此外,它還能解決老年人和殘疾人的出行問題,并挽救每年因交通事故枉死的數(shù)萬條生命。
不過,在暢想自動(dòng)駕駛汽車帶來的好處時(shí),我們也得直面它引發(fā)的問題,如人類司機(jī)的失業(yè)問題。從更深層次考慮,我們更是會(huì)面臨一個(gè)存在主義問題:
在自動(dòng)駕駛汽車面臨兩難困境時(shí),到底該犧牲誰?誰又有權(quán)決定他人的生死?
“即使進(jìn)入自動(dòng)駕駛時(shí)代,車禍也不可避免?!睂9プ詣?dòng)駕駛汽車的問題的 Dykema 律師事務(wù)所律師 Van Lindberg 說?!败囕v會(huì)遇到一些不尋常的事,如路邊的樹木突然傾倒,動(dòng)物或孩子竄到路上?!彪m然從整體來說自動(dòng)駕駛汽車能救命,但如果代價(jià)是要犧牲自己時(shí),恐怕沒人愿意。
從現(xiàn)在的情況來看,很少有人著急去解決這些問題。
舉例來說,美國(guó)國(guó)會(huì)和交通部正在審議的幾項(xiàng)相關(guān)法案就在腳注中標(biāo)明,倫理考量非常重要,但各方關(guān)于道德決策尚未達(dá)成共識(shí)。
不管自動(dòng)駕駛技術(shù)有沒有超人的能力,已經(jīng)有人顯出了自己對(duì)這些機(jī)器人選擇能力的擔(dān)憂。
去年,戴姆勒高管就因?yàn)殛P(guān)于該問題的公開表態(tài)遭到了批評(píng)。當(dāng)時(shí),他表示戴姆勒的自動(dòng)駕駛汽車會(huì)優(yōu)先考慮乘客的生命安全,這就意味著在關(guān)鍵時(shí)刻其他人的生命可以被犧牲。隨后,戴姆勒?qǐng)?jiān)稱這位高管的表述被曲解了,因?yàn)檫@樣的設(shè)定根本不可能得到立法部門的認(rèn)可。
前不久,谷歌自動(dòng)駕駛汽車之父 Sebastian Thrun 在接受彭博社采訪時(shí)表示,自動(dòng)駕駛汽車在設(shè)計(jì)之初就是為了避免事故發(fā)生,不過如果真的避無可避,它會(huì)選擇犧牲“更小”的事物。
不過,如果這個(gè)更小的事物是個(gè)孩子呢?如何豁達(dá)這個(gè)問題對(duì)自動(dòng)駕駛汽車的研發(fā)和普及會(huì)起到相當(dāng)重要的作用。
加州大學(xué)艾爾文分校心理和社會(huì)行為學(xué)助理教授 Azim Shariff 去年做了一項(xiàng)研究。他發(fā)現(xiàn)雖然受訪者通常會(huì)默認(rèn)在不可避免的事故中殺傷的人數(shù)越少越好(不分乘客還是行人),但他們絕不會(huì)購(gòu)買那種會(huì)威脅自己或者家人、朋友生命的自動(dòng)駕駛汽車。
Shariff 也承認(rèn),自動(dòng)駕駛汽車每年能挽救成千上萬條生命,但人們的恐懼會(huì)拖慢它的普及步伐,有人駕駛與無人駕駛之間的“爭(zhēng)奪”會(huì)持續(xù)很長(zhǎng)時(shí)間。
美國(guó)汽車聯(lián)合會(huì)的一項(xiàng)的調(diào)查也發(fā)現(xiàn),受訪的美國(guó)司機(jī)中,有四分之三都對(duì)自動(dòng)駕駛汽車持懷疑的看法。
“這些道德問題可不止停留在理論的范疇?!奔又堇砉ご髮W(xué)倫理和新興科學(xué)小組的導(dǎo)師 Patrick Lin 說道。
目前 Lin 領(lǐng)導(dǎo)的小組正與福特、特斯拉等自動(dòng)駕駛汽車制造商討論相關(guān)問題。雖然不能透露相關(guān)的討論細(xì)節(jié),但 Lin 稱一些汽車制造商直接斷定“倫理問題不足為慮”。
事實(shí)上,他們?cè)谘邪l(fā)過程中決定車輛能“看”到哪些物體,如何預(yù)測(cè)這些物體的動(dòng)作和車輛應(yīng)該做出的反應(yīng)其實(shí)就是在做道德決斷。
電腦會(huì)自始至終遵章守法嗎?它看到小孩就一定會(huì)減速讓行嗎?工程師是否給它們灌輸了“隨機(jī)”反應(yīng)程序?平時(shí)的模擬夠嗎?能告訴車輛不要?dú)⑷藛??這樣的命令會(huì)被編進(jìn)電腦的程序嗎?
“這么多的棘手問題,恐怕很快會(huì)成為一團(tuán)漿糊?!盠indberg 說道?!斑@么大的責(zé)任誰敢承擔(dān)?恐怕在解答這些問題時(shí)大家很難達(dá)成共識(shí)?!?/p>
被制造商和供應(yīng)商們忽視的問題其實(shí)在哲學(xué)上有對(duì)應(yīng)問題,它就是所謂的“電車難題”,而無論你拉不拉扳道器,疾馳的電車都會(huì)壓死人。
在自動(dòng)駕駛汽車上,情況也類似,如果車輛保護(hù)了乘客,那么行人就得死;如果車輛保護(hù)了行人,那么乘客就得死。車輛在這種兩難的情況下必須做出選擇。
“我考駕照的時(shí)候可不記得有這樣一道考題?!?車載軟件開發(fā)商 Elektrobit 的商業(yè)開發(fā)和通訊主管 Manuela Papadopol 說道。
如果有什么不同的話,那就是自動(dòng)駛汽車幾乎可以完全避免這種事情的發(fā)生,畢竟它離得很遠(yuǎn)就能“嗅探”到異樣的感覺,而人類司機(jī)大多數(shù)會(huì)采用急剎車來躲避危險(xiǎn)。
這就是自動(dòng)駕駛汽車的優(yōu)勢(shì),它們的剎車和傳感器都有冗余,能盡早探測(cè)到危險(xiǎn)并作出適當(dāng)?shù)姆磻?yīng)。
“自動(dòng)駕駛汽車會(huì)非常智能,因此我不認(rèn)為這是個(gè)難題,它肯定會(huì)有自己的解決方案。” Papadopol 解釋。
福特自動(dòng)駕駛汽車部門發(fā)言人 Alan Hall 則認(rèn)為自動(dòng)駕駛汽車的探測(cè)能力遠(yuǎn)超人類,無論白天黑夜它們都能生成 360 度的傳感器數(shù)據(jù)。
“車輛看到你的那一刻,就開始在腦子里構(gòu)思各種不同的應(yīng)對(duì)方案了,而那時(shí)它離你還遠(yuǎn)著。”他解釋道。
在 Lin 看來,許多自動(dòng)駕駛汽車制造商相信,簡(jiǎn)單的剎車或減速動(dòng)作就能解決電車難題。不過他們可能太天真,如果車后緊跟著一輛狂奔的油罐車,恐怕就不會(huì)這么想了。
許多專家和分析師相信,要解決電車難題需要監(jiān)管和立法者出面,他們得給自動(dòng)駕駛汽車指定相應(yīng)的應(yīng)對(duì)方案。不過,也有人認(rèn)為這些規(guī)矩?zé)o法囊括自動(dòng)駕駛汽車會(huì)遇到的所有棘手情況。
此外,這個(gè)問題也不用像決定誰必須死那么恐怖。我們可以轉(zhuǎn)換角度,決定如何整治那些亂穿馬路的人,指定專用的行車道路或面對(duì)松鼠等小動(dòng)物能否直接碾過去。
作為斯坦福大學(xué)汽車研究中心主管,Chris Gerdes 曾與福特、戴姆勒等公司探討過這一問題。在他看來,這個(gè)問題的答案并非決定誰死,而是防止這種兩難情況發(fā)生。此外,如果事情真的發(fā)生了,必須有個(gè)能判定責(zé)任的系統(tǒng)。
Gerdes 指出,加州法律要求車輛給人行橫道上的行人讓行,但同時(shí)也規(guī)定行人不能違反交通信號(hào)燈突然走上斑馬線,包括密歇根在內(nèi)的美國(guó)許多州都有類似的法律條文。
可以想象,在自動(dòng)駕駛汽車正式上路之前,會(huì)有新的法律條文加入,規(guī)范自動(dòng)駕駛汽車與行人的行為。
不過,這又會(huì)引發(fā)新的連鎖反應(yīng),比如“自動(dòng)駕駛汽車是否需要針對(duì)孩子專門設(shè)計(jì)新的應(yīng)對(duì)方案?”“難道法律面前不該人人平等嗎?”
這些問題的最終決定權(quán)還是會(huì)轉(zhuǎn)到立法者、法庭和管理者的肩上,而這可能會(huì)引發(fā)美國(guó)許多法律法規(guī)的前后沖突,漫長(zhǎng)的修補(bǔ)工作不可避免。
許多業(yè)內(nèi)人士,比如特斯拉 CEO Elon Musk 就相信全自動(dòng)駕駛汽車幾年之內(nèi)就能在美國(guó)上路。
不過也有觀點(diǎn)認(rèn)為,全自動(dòng)駕駛至少 10 年之后才能投入使用。需要注意的是,許多人相信即使自動(dòng)駕駛汽車或卡車已經(jīng)達(dá)到了預(yù)定的所有技術(shù)標(biāo)準(zhǔn),它們離正式上路也有一段距離。
想走完最后這段路,就必須先解決電車難題之類的困局,而且類似的困局還有很多,一只飛到窗戶上的鳥,一個(gè)扔過來的球,甚至占住了前方車道的大車,可能都會(huì)讓自動(dòng)駕駛汽車“撓頭”。
因此,汽車制造商需要決定自動(dòng)駕駛汽車應(yīng)該“看”到什么,又應(yīng)該忽視什么。畢竟搜集周邊的所有數(shù)據(jù)并進(jìn)行運(yùn)算是在浪費(fèi)本就有限的計(jì)算能力。不過,如果它們這么做了,就會(huì)引發(fā)新的倫理道德問題。
隨后,如何教會(huì)自動(dòng)駕駛汽車掌握自己的任務(wù)也是個(gè)難題,畢竟以前這些工作只存在于科幻小說中。
雖然工程師可以給自動(dòng)駕駛汽車灌入程序,如教它遇到校車時(shí)應(yīng)該作何反應(yīng),但這里還存在其他選項(xiàng)。通過數(shù)百萬英里的電腦模擬,自動(dòng)駕駛汽車會(huì)不斷學(xué)習(xí)總結(jié),找到某種情況下的“最佳”應(yīng)對(duì)方式。
舉例來說,最近曝光的政府文檔顯示,Waymo 就在通過模擬中的試錯(cuò)來教會(huì)自動(dòng)駕駛汽車如何處理一個(gè)麻煩的左轉(zhuǎn)彎。因此,最終決定自動(dòng)駕駛汽車行為的不是工程師或程序員,而是模擬。
通過這樣的測(cè)試車輛就能找到從 A 點(diǎn)到 B 點(diǎn)的“最佳”方案(工程師版)。不過,結(jié)合現(xiàn)實(shí)情況的模擬和數(shù)據(jù)分享才能讓它們真正學(xué)會(huì)執(zhí)行任務(wù)。
當(dāng)然,以下的事情更為科幻。
以橫掃世界棋壇的 AlphaGo 為例,一開始是工程師通過編程讓它學(xué)會(huì)如何下圍棋的,但經(jīng)過長(zhǎng)時(shí)間的訓(xùn)練和模擬,它的落子卻越來越不符合直覺,就連頂級(jí)圍棋運(yùn)動(dòng)員也無法解釋它的下棋方式。
那么如果故事的主人公從 AlphaGo 換成自動(dòng)駕駛汽車呢?
伊浦西蘭迪(密歇根州)的美國(guó)移動(dòng)出行中心最近建成了一個(gè)自動(dòng)駕駛汽車測(cè)試場(chǎng),該中心負(fù)責(zé)人 John Maddox 表示,這里會(huì)成為自動(dòng)駕駛汽車“極端”案例的測(cè)試場(chǎng)。
Maddox 為自動(dòng)駕駛汽車準(zhǔn)備了很多奇葩測(cè)試,如汽車駛?cè)牒诎档乃淼篮罂赡荞R上會(huì)遇見一堵墻。車輛還要精確的預(yù)測(cè)路邊的行人是否會(huì)走下馬路牙子。
此外,該機(jī)構(gòu)在測(cè)試中還有個(gè)艱巨的任務(wù),即讓公眾了解自動(dòng)駕駛汽車的能力,它們的運(yùn)作方式和完全超越人類司機(jī)的安全性。
“一定的教育非常重要。”Maddox 說道。“我們要展示和說明自動(dòng)駕駛汽車的工作方式和它們能力的局限性。”
至于電車難題,大多數(shù)汽車制造商和專家希望業(yè)內(nèi)能出臺(tái)一些標(biāo)準(zhǔn),不過這個(gè)標(biāo)準(zhǔn)到底什么樣,現(xiàn)在還沒有相應(yīng)的規(guī)劃。
SAE International首席產(chǎn)品官 Frank Menchaca 對(duì)制定標(biāo)準(zhǔn)一事潑了冷水。他認(rèn)為制定完美標(biāo)準(zhǔn)這個(gè)任務(wù)讓人望而卻步,畢竟一場(chǎng)交通事故會(huì)受很多因素影響,比如速度、位置、天氣和機(jī)械性能等。
Menchaca 認(rèn)為,即使我們有了標(biāo)準(zhǔn),也無法回答在兩難情況下到底誰更該“奉獻(xiàn)”生命的問題。別忘了,這個(gè)問題最后還得人決定,而恐怕誰都不愿承擔(dān)這個(gè)責(zé)任。
“人類經(jīng)過成千上萬年的進(jìn)化,許多道德、倫理、宗教和社會(huì)習(xí)慣已經(jīng)嵌入了我們的基因?!彼a(bǔ)充道?!跋氚堰@些標(biāo)準(zhǔn)原封不動(dòng)的復(fù)制出來可不容易。”
除了電車難題,自動(dòng)駕駛汽車可能還會(huì)遇到以下吊詭的場(chǎng)景,解決起來也不容易:
1. 自動(dòng)駕駛汽車在路上行駛時(shí)發(fā)現(xiàn)路兩邊有兩撥行人,一撥人數(shù)多,而另一撥則只有一人。這時(shí)它是否應(yīng)該給人數(shù)更多的那撥行人留下更多安全空間?如果這樣做了,是否會(huì)增加那位獨(dú)行行人被撞的幾率?
2. 自動(dòng)駕駛汽車是否應(yīng)該學(xué)習(xí)人類駕駛員,在大卡車駛過時(shí)主動(dòng)讓出更多空間?這樣會(huì)不會(huì)增加自己撞到另一邊車道上車輛或行人的可能?
3. 如果自動(dòng)駕駛汽車的詞典里就沒有“撞擊行人”這個(gè)詞,那么一旦有人要自殺(主動(dòng)撞車),車輛是否會(huì)失控?
4. 如果一只狗突然沖了出來,或者麋鹿、松鼠之類,自動(dòng)駕駛汽車是會(huì)直接撞過去?加速或剎車躲避?這樣是不是就會(huì)增加撞到其他車輛的可能性?
5. 如果自動(dòng)駕駛汽車智能到會(huì)躲避交通事故和擁堵,它們是否會(huì)蜂擁進(jìn)入寧?kù)o的社區(qū)呢?如果真是這樣,恐怕原本可以在社區(qū)奔跑打鬧的孩子就危險(xiǎn)了。同時(shí),噪音變大的社區(qū)房地產(chǎn)價(jià)值也會(huì)隨之縮水。
雷鋒網(wǎng)推薦閱讀:
倫理學(xué)家靠邊站 ,律師才是解決自動(dòng)駕駛“電車難題”的定海神針
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。