1
如果一輛無人駕駛汽車正面臨不可規(guī)避的交通事故,AI系統(tǒng)會選擇撞向誰?誠然,技術已經(jīng)為當今汽車的智能化貢獻了許多,但高度自動化的未來,類似倫理問題是所有人必須面對的。這也是為什么麻省理工學院(MIT)的研究人員啟動了這個全新的研究項目,旨在賦予機械“道德觀”。
雷鋒網(wǎng)消息,麻省理工學院已經(jīng)上線一個名為“道德機器”的網(wǎng)站,網(wǎng)站的功能很簡單,就是以問卷的形式面向大眾收集情境選擇的數(shù)據(jù)。例如,面對不可避免的事故,選擇撞向人還是動物?選擇罪犯還是普通人?這些數(shù)以萬計的選擇,將通過后臺被MIT的研究團隊采集,為未來機器智能平臺(如自動駕駛汽車)面臨的倫理問題提供參考。
是不是似曾相識?其實,這個問題和著名悖論之一“電車難題”一脈相承。“電車難題”于1967年由菲利帕·福特(Philippa Foot)提出,大概內容如下。
“一個瘋子把五個無辜的人綁在電車軌道上。一輛失控的電車朝他們駛來,并且片刻后就要碾壓到他們。幸運的是,你可以操作一個拉桿,讓電車開到另一條軌道上。然而問題在于,那個瘋子在另一個電車軌道上也綁了一個人??紤]以上狀況,你如何選擇?”
這時,你面臨兩個選擇:
1.不作為,任由電車碾死被綁住的五個人。
2.扳動轉換器,電車會碾死另外一個人,五個人會得救。
這是一個看似簡單,但非常復雜的問題,就和未來無人駕駛汽車要面對的問題一樣。MIT的做法是,使參與者身臨其境地站在無人駕駛汽車AI的位置上,為一些突發(fā)狀況做出決策。這些極端情況的發(fā)生概率極低,甚至一生之中都不會遇見,但至今沒有人能給出一個明確的答案。
在MIT給出的模擬情境中,用戶將面對一系列極端場景。究竟一個人的生命,與一只動物的生命孰輕孰重?一個老人和一個年輕人呢?一個男人和一個女人呢?抑或是,究竟應該徑直撞死兩個犯罪分子和兩個無辜路人,還是沖下懸崖放棄駕駛員與三個無辜乘客的生命?
上面這些問題并沒有“正確答案“,據(jù)雷鋒網(wǎng)了解,此項調查的初衷,也是在于收集人類對于不同情景下的直觀感覺,從而使AI的選擇更符合人類的預期,或者說,讓AI的殘酷選擇,達到絕大多數(shù)人可以接受的程度。
無人駕駛的倫理困局
毫無疑問,無人駕駛汽車將在未來大大降低交通事故概率,并拯救更多生命。但隨著無人駕駛應用的普及,總有一天會陷入諸如上述的倫理困局,汽車的智能決策系統(tǒng)需要對一小部分人的意外負責,而在這之前,做這件事的一直都是人類自己。
MIT的實驗一定程度上帶來了思考,但也有評論指責其過分消費“倫理”,造成了邏輯漏洞。因為這項研究,是建立在對不同行人的長幼、身份、社會地位等標簽的認知基礎上的,嚴肅而不太恰當?shù)卣f,如果研究數(shù)據(jù)將拯救性命的優(yōu)先級排序為精英>普通職員>退休員工>一只狗,難道真的可以以此指導無人駕駛車的倫理決策嗎?
有媒體認為,這種決策思路建立在了自動駕駛對人類有某種認知的前提下,但至少目前,自動駕駛技術并不會達到這種水平。例如,如果質疑一個人的生命價值高于其他人,那么前提是自動駕駛汽車能夠辨別哪個人具有更高價值。
此前也有車廠提出比較鮮明的觀點,據(jù)雷鋒網(wǎng)了解,去年10月,梅賽德斯-奔馳公司某高管在面對“電車難題”時對媒體表示,“奔馳自動駕駛汽車未來會致力于保護車內乘客的生命,必要時不惜一切代價?!?/p>
雖然戴姆勒隨后出面否認了這一說法,但這卻成為車廠無法逃避的問題:如果用戶發(fā)現(xiàn)你的自動駕駛汽車程序,編寫的是一段保護“橫穿馬路”行人的代碼,他還會為你的產品買單嗎?
《自然》雜志的最新研究報告也顯示,即便有明確的規(guī)則出臺,指導無人駕駛汽車在事故面前決策,也不會改變用戶目前不信任的想法。如果“總會有人犧牲”,將這個選擇權交由機器,不會得到多數(shù)人的支持,甚至可能導致人們拒絕購買自動駕駛汽車。當然,長期來看,非自動駕駛會導致更多的死亡,可人們寧肯將選擇權交給自己。
我們能夠做什么?
谷歌X實驗室曾在公開采訪中回應過這個問題,當時Waymo還沒有作為單獨的公司被剝離。X實驗室自動駕駛項目的首席工程師Andrew Chatham(安德魯·查塔姆)表示,“至少目前谷歌的所有路測活動中,還沒有遇到一個場景讓我們選擇是拯救一個老人還是嬰兒,但如果這一刻真的到來,那通常只是意味著幾秒前你已經(jīng)犯下一個更大的錯誤?!?/p>
所以,他們的目標,更多是通過優(yōu)化汽車的剎車決策時間,最大限度阻止這種情境的發(fā)生。
MIT的方法對人類而言并非最優(yōu)解,正如一位評論者所言,“如果這種排序是我們面對機器倫理問題最好的點子,只能說人類還沒有準備好迎接由機器智能決策的未來?!?/p>
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知。