4
本文作者: 夏沖 | 2014-11-28 23:12 |
婚姻領域有一個著名的蠢問題叫:“女友和丈母娘同時落水,你先救誰?”
這個問題放到無人駕駛汽車上等同于:
“假如一輛無人駕駛卡車突然轉彎,這時前方左側有一個騎自行車的人,而右側是幾個正在散步的人?請問,這時汽車該撞向哪一側?”
“同樣是上述的那輛汽車,只不過左邊變成了安全系數(shù)高的沃爾沃SUV,而右邊是Mini Cooper。在這種情況下應該撞向哪個?”
“還是這輛汽車,它的前方左側是一個帶了頭盔的摩托車手,而右邊是一個未帶頭盔的摩托車手,那么又該如何選擇?”
細想一下,上述的問題怎么選其實都有質(zhì)疑的空間:選擇撞一個人而不是一群人似乎更合理,可有人會問你怎么確定那一個人的生命成本可以由數(shù)量來定義;選擇撞更重更安全的沃爾沃,有人則會覺得這是鼓勵大家去買更不安全的車輛嗎?選擇撞向戴頭盔的車手,有人則會覺得這是鼓勵大家不戴頭盔嗎?
對于設計無人駕駛程序的工程師們來說,這本來只是一個優(yōu)化問題。他們可以設計出機會成本公式,賦值,得出不同選項的預期成本,然后選擇最低成本的那個??蓛?yōu)化邏輯不也需要合理的理由嗎,如果給不出來,那么如何說服人們選擇購買它呢?
對于駕駛員來說,他們可以在危機瞬間決定選擇,后續(xù)問題就交給保險公司和交警部門了。但這輛倒霉的汽車可不能隨便選,只因為它的身份是:無人駕駛汽車。
人們在心中似乎預設了一個邏輯:人是非理性的動物,因此犯了錯誤也是可以被原諒的。而機器是理性的,他們犯錯誤可不那么容易被原諒。
無人汽車的問題也正在于此,人們都把無人駕駛汽車當做一臺智能機器,沒問題時一切好說,但一旦遇到遇到上述麻煩,那么這輛汽車不管如何選擇似乎都會被責問聲淹沒。
當沒有實際對象承擔無人車犯錯的責任時,人們自然會望向它的生產(chǎn)者。但是,指望新技術盈利的廠商們可不愿背負這些,不然,賺錢不成,大眾譴責和法律責任倒是如山而來。
一旦廠商們不愿意使用無人駕駛技術了,那么誰又來為這個燒掉巨額研發(fā)費用的技術埋單呢?
不過對于連影兒都還沒見到的無人駕駛汽車來說,當務之急也許還沒到倫理層次。據(jù)清華大學人工智能專業(yè)博士張?zhí)炖紫蛑邱{君表示,目前無人駕駛的研發(fā)尚有許多技術問題還未得到解決,因此,糾結于倫理問題顯得有點早,技術層面都還沒成形,遑論道了。
當然,大眾輿論領域對于道德問題的爭論是不會停止的,轉基因技術、智能機器人都在遭遇同樣的詰問。在無人駕駛汽車面世前,那些做好了準備的廠商們,還真得好好琢磨琢磨,如何在未來少挨一點罵。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知。