4
本文作者: 夏沖 | 2014-11-28 23:12 |
婚姻領(lǐng)域有一個著名的蠢問題叫:“女友和丈母娘同時落水,你先救誰?”
這個問題放到無人駕駛汽車上等同于:
“假如一輛無人駕駛卡車突然轉(zhuǎn)彎,這時前方左側(cè)有一個騎自行車的人,而右側(cè)是幾個正在散步的人?請問,這時汽車該撞向哪一側(cè)?”
“同樣是上述的那輛汽車,只不過左邊變成了安全系數(shù)高的沃爾沃SUV,而右邊是Mini Cooper。在這種情況下應(yīng)該撞向哪個?”
“還是這輛汽車,它的前方左側(cè)是一個帶了頭盔的摩托車手,而右邊是一個未帶頭盔的摩托車手,那么又該如何選擇?”
細(xì)想一下,上述的問題怎么選其實都有質(zhì)疑的空間:選擇撞一個人而不是一群人似乎更合理,可有人會問你怎么確定那一個人的生命成本可以由數(shù)量來定義;選擇撞更重更安全的沃爾沃,有人則會覺得這是鼓勵大家去買更不安全的車輛嗎?選擇撞向戴頭盔的車手,有人則會覺得這是鼓勵大家不戴頭盔嗎?
對于設(shè)計無人駕駛程序的工程師們來說,這本來只是一個優(yōu)化問題。他們可以設(shè)計出機(jī)會成本公式,賦值,得出不同選項的預(yù)期成本,然后選擇最低成本的那個。可優(yōu)化邏輯不也需要合理的理由嗎,如果給不出來,那么如何說服人們選擇購買它呢?
對于駕駛員來說,他們可以在危機(jī)瞬間決定選擇,后續(xù)問題就交給保險公司和交警部門了。但這輛倒霉的汽車可不能隨便選,只因為它的身份是:無人駕駛汽車。
人們在心中似乎預(yù)設(shè)了一個邏輯:人是非理性的動物,因此犯了錯誤也是可以被原諒的。而機(jī)器是理性的,他們犯錯誤可不那么容易被原諒。
無人汽車的問題也正在于此,人們都把無人駕駛汽車當(dāng)做一臺智能機(jī)器,沒問題時一切好說,但一旦遇到遇到上述麻煩,那么這輛汽車不管如何選擇似乎都會被責(zé)問聲淹沒。
當(dāng)沒有實際對象承擔(dān)無人車犯錯的責(zé)任時,人們自然會望向它的生產(chǎn)者。但是,指望新技術(shù)盈利的廠商們可不愿背負(fù)這些,不然,賺錢不成,大眾譴責(zé)和法律責(zé)任倒是如山而來。
一旦廠商們不愿意使用無人駕駛技術(shù)了,那么誰又來為這個燒掉巨額研發(fā)費用的技術(shù)埋單呢?
不過對于連影兒都還沒見到的無人駕駛汽車來說,當(dāng)務(wù)之急也許還沒到倫理層次。據(jù)清華大學(xué)人工智能專業(yè)博士張?zhí)炖紫蛑邱{君表示,目前無人駕駛的研發(fā)尚有許多技術(shù)問題還未得到解決,因此,糾結(jié)于倫理問題顯得有點早,技術(shù)層面都還沒成形,遑論道了。
當(dāng)然,大眾輿論領(lǐng)域?qū)τ诘赖聠栴}的爭論是不會停止的,轉(zhuǎn)基因技術(shù)、智能機(jī)器人都在遭遇同樣的詰問。在無人駕駛汽車面世前,那些做好了準(zhǔn)備的廠商們,還真得好好琢磨琢磨,如何在未來少挨一點罵。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。