丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
智能駕駛 正文
發(fā)私信給大壯旅
發(fā)送

0

自動駕駛汽車倫理大討論:到底誰有權(quán)決定他人的生死?

本文作者: 大壯旅 2017-12-27 09:32
導(dǎo)語:搞不定這個問題,自動駕駛汽車難上路。

自動駕駛汽車倫理大討論:到底誰有權(quán)決定他人的生死?

雷鋒網(wǎng)按:在即將到來的 CES 2018 之后,雷鋒網(wǎng)將在美國科技的大本營硅谷舉辦 GAIR 硅谷智能駕駛峰會。目前圣誕特惠票依然開放預(yù)訂中。本次峰會將有數(shù)十家中美兩地頂尖的自動駕駛團(tuán)隊在峰會現(xiàn)場演講分享,此外將有近百家自動駕駛產(chǎn)業(yè)鏈公司在現(xiàn)場交流。詳情請訪問 https://gair.leiphone.com/gair/gairsv2018。

我們先進(jìn)入假想狀態(tài):在一個陽光明媚的日子,你坐在剛買的自動駕駛汽車一路向南疾馳在高速上。解放了雙手的你愜意的享受著路邊的美景和車內(nèi)的零食,但在一個上坡路段,突然出現(xiàn)了一輛向北行駛的校車,它突然轉(zhuǎn)向朝你沖來。這時你的車已經(jīng)沒時間剎停,你也無法控制方向盤完成緊急變線。

這時,你乘坐的自動駕駛汽車有三種選擇:

A. 緊急轉(zhuǎn)向沖向樹林,這樣也許會救了校車和乘客,但可能會讓你丟了小命;

B. 緊急變線進(jìn)入對向車道,保證自己的安全,犧牲校車司機(jī)和孩子們;

C. 直接撞向校車,大家“同歸于盡”。

在日常駕駛中,這種極端情況很少會出現(xiàn)。不過,對于自動駕駛汽車而言,這樣的情況一旦發(fā)生就必須有應(yīng)對措施。因此,做一個艱難的道德選擇勢在必行。

過去幾年中,各家公司在自動駕駛領(lǐng)域已投入超過 800 億美元,除了大家耳熟能詳?shù)?Waymo、Uber 和特斯拉,底特律巨頭們也正在抓緊追趕。

這種曾經(jīng)只存在于科幻電影中的產(chǎn)品可能幾年后就會從我們身旁擦身而過,因此這個艱難的道德選擇已經(jīng)不再是停留在理論階段的空想。

自動駕駛汽車的到來確實令人興奮,它會讓通勤變得更輕松,把堵車?yán)速M的時間還給每個人。此外,它還能解決老年人和殘疾人的出行問題,并挽救每年因交通事故枉死的數(shù)萬條生命。

不過,在暢想自動駕駛汽車帶來的好處時,我們也得直面它引發(fā)的問題,如人類司機(jī)的失業(yè)問題。從更深層次考慮,我們更是會面臨一個存在主義問題:

在自動駕駛汽車面臨兩難困境時,到底該犧牲誰?誰又有權(quán)決定他人的生死?

 “即使進(jìn)入自動駕駛時代,車禍也不可避免。”專攻自動駕駛汽車的問題的 Dykema 律師事務(wù)所律師 Van Lindberg 說?!败囕v會遇到一些不尋常的事,如路邊的樹木突然傾倒,動物或孩子竄到路上?!彪m然從整體來說自動駕駛汽車能救命,但如果代價是要犧牲自己時,恐怕沒人愿意。

從現(xiàn)在的情況來看,很少有人著急去解決這些問題。

舉例來說,美國國會和交通部正在審議的幾項相關(guān)法案就在腳注中標(biāo)明,倫理考量非常重要,但各方關(guān)于道德決策尚未達(dá)成共識。

不管自動駕駛技術(shù)有沒有超人的能力,已經(jīng)有人顯出了自己對這些機(jī)器人選擇能力的擔(dān)憂。

去年,戴姆勒高管就因為關(guān)于該問題的公開表態(tài)遭到了批評。當(dāng)時,他表示戴姆勒的自動駕駛汽車會優(yōu)先考慮乘客的生命安全,這就意味著在關(guān)鍵時刻其他人的生命可以被犧牲。隨后,戴姆勒堅稱這位高管的表述被曲解了,因為這樣的設(shè)定根本不可能得到立法部門的認(rèn)可。

前不久,谷歌自動駕駛汽車之父 Sebastian Thrun 在接受彭博社采訪時表示,自動駕駛汽車在設(shè)計之初就是為了避免事故發(fā)生,不過如果真的避無可避,它會選擇犧牲“更小”的事物。

不過,如果這個更小的事物是個孩子呢?如何豁達(dá)這個問題對自動駕駛汽車的研發(fā)和普及會起到相當(dāng)重要的作用。

加州大學(xué)艾爾文分校心理和社會行為學(xué)助理教授 Azim Shariff 去年做了一項研究。他發(fā)現(xiàn)雖然受訪者通常會默認(rèn)在不可避免的事故中殺傷的人數(shù)越少越好(不分乘客還是行人),但他們絕不會購買那種會威脅自己或者家人、朋友生命的自動駕駛汽車。

Shariff 也承認(rèn),自動駕駛汽車每年能挽救成千上萬條生命,但人們的恐懼會拖慢它的普及步伐,有人駕駛與無人駕駛之間的“爭奪”會持續(xù)很長時間。

美國汽車聯(lián)合會的一項的調(diào)查也發(fā)現(xiàn),受訪的美國司機(jī)中,有四分之三都對自動駕駛汽車持懷疑的看法。

“這些道德問題可不止停留在理論的范疇?!奔又堇砉ご髮W(xué)倫理和新興科學(xué)小組的導(dǎo)師 Patrick Lin 說道。

目前 Lin 領(lǐng)導(dǎo)的小組正與福特、特斯拉等自動駕駛汽車制造商討論相關(guān)問題。雖然不能透露相關(guān)的討論細(xì)節(jié),但 Lin 稱一些汽車制造商直接斷定“倫理問題不足為慮”。

事實上,他們在研發(fā)過程中決定車輛能“看”到哪些物體,如何預(yù)測這些物體的動作和車輛應(yīng)該做出的反應(yīng)其實就是在做道德決斷。

電腦會自始至終遵章守法嗎?它看到小孩就一定會減速讓行嗎?工程師是否給它們灌輸了“隨機(jī)”反應(yīng)程序?平時的模擬夠嗎?能告訴車輛不要殺人嗎?這樣的命令會被編進(jìn)電腦的程序嗎?

“這么多的棘手問題,恐怕很快會成為一團(tuán)漿糊?!盠indberg 說道?!斑@么大的責(zé)任誰敢承擔(dān)?恐怕在解答這些問題時大家很難達(dá)成共識?!?/p>

電車難題

被制造商和供應(yīng)商們忽視的問題其實在哲學(xué)上有對應(yīng)問題,它就是所謂的“電車難題”,而無論你拉不拉扳道器,疾馳的電車都會壓死人。

在自動駕駛汽車上,情況也類似,如果車輛保護(hù)了乘客,那么行人就得死;如果車輛保護(hù)了行人,那么乘客就得死。車輛在這種兩難的情況下必須做出選擇。

“我考駕照的時候可不記得有這樣一道考題。” 車載軟件開發(fā)商 Elektrobit 的商業(yè)開發(fā)和通訊主管 Manuela Papadopol 說道。

如果有什么不同的話,那就是自動駛汽車幾乎可以完全避免這種事情的發(fā)生,畢竟它離得很遠(yuǎn)就能“嗅探”到異樣的感覺,而人類司機(jī)大多數(shù)會采用急剎車來躲避危險。

這就是自動駕駛汽車的優(yōu)勢,它們的剎車和傳感器都有冗余,能盡早探測到危險并作出適當(dāng)?shù)姆磻?yīng)。

“自動駕駛汽車會非常智能,因此我不認(rèn)為這是個難題,它肯定會有自己的解決方案?!?Papadopol 解釋。

福特自動駕駛汽車部門發(fā)言人 Alan Hall 則認(rèn)為自動駕駛汽車的探測能力遠(yuǎn)超人類,無論白天黑夜它們都能生成 360 度的傳感器數(shù)據(jù)。

“車輛看到你的那一刻,就開始在腦子里構(gòu)思各種不同的應(yīng)對方案了,而那時它離你還遠(yuǎn)著。”他解釋道。

在 Lin 看來,許多自動駕駛汽車制造商相信,簡單的剎車或減速動作就能解決電車難題。不過他們可能太天真,如果車后緊跟著一輛狂奔的油罐車,恐怕就不會這么想了。

許多專家和分析師相信,要解決電車難題需要監(jiān)管和立法者出面,他們得給自動駕駛汽車指定相應(yīng)的應(yīng)對方案。不過,也有人認(rèn)為這些規(guī)矩?zé)o法囊括自動駕駛汽車會遇到的所有棘手情況。

此外,這個問題也不用像決定誰必須死那么恐怖。我們可以轉(zhuǎn)換角度,決定如何整治那些亂穿馬路的人,指定專用的行車道路或面對松鼠等小動物能否直接碾過去。

作為斯坦福大學(xué)汽車研究中心主管,Chris Gerdes 曾與福特、戴姆勒等公司探討過這一問題。在他看來,這個問題的答案并非決定誰死,而是防止這種兩難情況發(fā)生。此外,如果事情真的發(fā)生了,必須有個能判定責(zé)任的系統(tǒng)。

Gerdes 指出,加州法律要求車輛給人行橫道上的行人讓行,但同時也規(guī)定行人不能違反交通信號燈突然走上斑馬線,包括密歇根在內(nèi)的美國許多州都有類似的法律條文。

可以想象,在自動駕駛汽車正式上路之前,會有新的法律條文加入,規(guī)范自動駕駛汽車與行人的行為。

不過,這又會引發(fā)新的連鎖反應(yīng),比如“自動駕駛汽車是否需要針對孩子專門設(shè)計新的應(yīng)對方案?”“難道法律面前不該人人平等嗎?”

這些問題的最終決定權(quán)還是會轉(zhuǎn)到立法者、法庭和管理者的肩上,而這可能會引發(fā)美國許多法律法規(guī)的前后沖突,漫長的修補(bǔ)工作不可避免。

難解的困局

許多業(yè)內(nèi)人士,比如特斯拉 CEO Elon Musk 就相信全自動駕駛汽車幾年之內(nèi)就能在美國上路。

不過也有觀點認(rèn)為,全自動駕駛至少 10 年之后才能投入使用。需要注意的是,許多人相信即使自動駕駛汽車或卡車已經(jīng)達(dá)到了預(yù)定的所有技術(shù)標(biāo)準(zhǔn),它們離正式上路也有一段距離。

想走完最后這段路,就必須先解決電車難題之類的困局,而且類似的困局還有很多,一只飛到窗戶上的鳥,一個扔過來的球,甚至占住了前方車道的大車,可能都會讓自動駕駛汽車“撓頭”。

因此,汽車制造商需要決定自動駕駛汽車應(yīng)該“看”到什么,又應(yīng)該忽視什么。畢竟搜集周邊的所有數(shù)據(jù)并進(jìn)行運(yùn)算是在浪費本就有限的計算能力。不過,如果它們這么做了,就會引發(fā)新的倫理道德問題。

隨后,如何教會自動駕駛汽車掌握自己的任務(wù)也是個難題,畢竟以前這些工作只存在于科幻小說中。

雖然工程師可以給自動駕駛汽車灌入程序,如教它遇到校車時應(yīng)該作何反應(yīng),但這里還存在其他選項。通過數(shù)百萬英里的電腦模擬,自動駕駛汽車會不斷學(xué)習(xí)總結(jié),找到某種情況下的“最佳”應(yīng)對方式。

舉例來說,最近曝光的政府文檔顯示,Waymo 就在通過模擬中的試錯來教會自動駕駛汽車如何處理一個麻煩的左轉(zhuǎn)彎。因此,最終決定自動駕駛汽車行為的不是工程師或程序員,而是模擬。

通過這樣的測試車輛就能找到從 A 點到 B 點的“最佳”方案(工程師版)。不過,結(jié)合現(xiàn)實情況的模擬和數(shù)據(jù)分享才能讓它們真正學(xué)會執(zhí)行任務(wù)。

當(dāng)然,以下的事情更為科幻。

以橫掃世界棋壇的 AlphaGo 為例,一開始是工程師通過編程讓它學(xué)會如何下圍棋的,但經(jīng)過長時間的訓(xùn)練和模擬,它的落子卻越來越不符合直覺,就連頂級圍棋運(yùn)動員也無法解釋它的下棋方式。

那么如果故事的主人公從 AlphaGo 換成自動駕駛汽車呢?

伊浦西蘭迪(密歇根州)的美國移動出行中心最近建成了一個自動駕駛汽車測試場,該中心負(fù)責(zé)人 John Maddox 表示,這里會成為自動駕駛汽車“極端”案例的測試場。

Maddox 為自動駕駛汽車準(zhǔn)備了很多奇葩測試,如汽車駛?cè)牒诎档乃淼篮罂赡荞R上會遇見一堵墻。車輛還要精確的預(yù)測路邊的行人是否會走下馬路牙子。

此外,該機(jī)構(gòu)在測試中還有個艱巨的任務(wù),即讓公眾了解自動駕駛汽車的能力,它們的運(yùn)作方式和完全超越人類司機(jī)的安全性。

“一定的教育非常重要?!盡addox 說道?!拔覀円故竞驼f明自動駕駛汽車的工作方式和它們能力的局限性。”

至于電車難題,大多數(shù)汽車制造商和專家希望業(yè)內(nèi)能出臺一些標(biāo)準(zhǔn),不過這個標(biāo)準(zhǔn)到底什么樣,現(xiàn)在還沒有相應(yīng)的規(guī)劃。

SAE International首席產(chǎn)品官 Frank Menchaca 對制定標(biāo)準(zhǔn)一事潑了冷水。他認(rèn)為制定完美標(biāo)準(zhǔn)這個任務(wù)讓人望而卻步,畢竟一場交通事故會受很多因素影響,比如速度、位置、天氣和機(jī)械性能等。

Menchaca 認(rèn)為,即使我們有了標(biāo)準(zhǔn),也無法回答在兩難情況下到底誰更該“奉獻(xiàn)”生命的問題。別忘了,這個問題最后還得人決定,而恐怕誰都不愿承擔(dān)這個責(zé)任。

“人類經(jīng)過成千上萬年的進(jìn)化,許多道德、倫理、宗教和社會習(xí)慣已經(jīng)嵌入了我們的基因?!彼a(bǔ)充道?!跋氚堰@些標(biāo)準(zhǔn)原封不動的復(fù)制出來可不容易?!?/p>

吊詭的場景

除了電車難題,自動駕駛汽車可能還會遇到以下吊詭的場景,解決起來也不容易:

1. 自動駕駛汽車在路上行駛時發(fā)現(xiàn)路兩邊有兩撥行人,一撥人數(shù)多,而另一撥則只有一人。這時它是否應(yīng)該給人數(shù)更多的那撥行人留下更多安全空間?如果這樣做了,是否會增加那位獨行行人被撞的幾率?

2. 自動駕駛汽車是否應(yīng)該學(xué)習(xí)人類駕駛員,在大卡車駛過時主動讓出更多空間?這樣會不會增加自己撞到另一邊車道上車輛或行人的可能?

3. 如果自動駕駛汽車的詞典里就沒有“撞擊行人”這個詞,那么一旦有人要自殺(主動撞車),車輛是否會失控?

4. 如果一只狗突然沖了出來,或者麋鹿、松鼠之類,自動駕駛汽車是會直接撞過去?加速或剎車躲避?這樣是不是就會增加撞到其他車輛的可能性?

5. 如果自動駕駛汽車智能到會躲避交通事故和擁堵,它們是否會蜂擁進(jìn)入寧靜的社區(qū)呢?如果真是這樣,恐怕原本可以在社區(qū)奔跑打鬧的孩子就危險了。同時,噪音變大的社區(qū)房地產(chǎn)價值也會隨之縮水。

雷鋒網(wǎng)推薦閱讀:

倫理學(xué)家靠邊站 ,律師才是解決自動駕駛“電車難題”的定海神針

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

分享:
相關(guān)文章
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說