丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
智能駕駛 正文
發(fā)私信給思佳
發(fā)送

1

當(dāng)人工智能遇上“倫理”,無人駕駛汽車如何面對(duì)死亡?

本文作者: 思佳 2017-01-18 09:46
導(dǎo)語:智能,已經(jīng)在當(dāng)今為我們解決了太多問題,但顯然有些問題,機(jī)器還解決不了……

如果一輛無人駕駛汽車正面臨不可規(guī)避的交通事故,AI系統(tǒng)會(huì)選擇撞向誰?誠然,技術(shù)已經(jīng)為當(dāng)今汽車的智能化貢獻(xiàn)了許多,但高度自動(dòng)化的未來,類似倫理問題是所有人必須面對(duì)的。這也是為什么麻省理工學(xué)院(MIT)的研究人員啟動(dòng)了這個(gè)全新的研究項(xiàng)目,旨在賦予機(jī)械“道德觀”。

雷鋒網(wǎng)消息,麻省理工學(xué)院已經(jīng)上線一個(gè)名為“道德機(jī)器”的網(wǎng)站,網(wǎng)站的功能很簡單,就是以問卷的形式面向大眾收集情境選擇的數(shù)據(jù)。例如,面對(duì)不可避免的事故,選擇撞向人還是動(dòng)物?選擇罪犯還是普通人?這些數(shù)以萬計(jì)的選擇,將通過后臺(tái)被MIT的研究團(tuán)隊(duì)采集,為未來機(jī)器智能平臺(tái)(如自動(dòng)駕駛汽車)面臨的倫理問題提供參考。 

當(dāng)人工智能遇上“倫理”,無人駕駛汽車如何面對(duì)死亡?

是不是似曾相識(shí)?其實(shí),這個(gè)問題和著名悖論之一“電車難題”一脈相承?!半娷囯y題”于1967年由菲利帕·福特(Philippa Foot)提出,大概內(nèi)容如下。

“一個(gè)瘋子把五個(gè)無辜的人綁在電車軌道上。一輛失控的電車朝他們駛來,并且片刻后就要碾壓到他們。幸運(yùn)的是,你可以操作一個(gè)拉桿,讓電車開到另一條軌道上。然而問題在于,那個(gè)瘋子在另一個(gè)電車軌道上也綁了一個(gè)人??紤]以上狀況,你如何選擇?”

這時(shí),你面臨兩個(gè)選擇:

1.不作為,任由電車碾死被綁住的五個(gè)人。

2.扳動(dòng)轉(zhuǎn)換器,電車會(huì)碾死另外一個(gè)人,五個(gè)人會(huì)得救。

這是一個(gè)看似簡單,但非常復(fù)雜的問題,就和未來無人駕駛汽車要面對(duì)的問題一樣。MIT的做法是,使參與者身臨其境地站在無人駕駛汽車AI的位置上,為一些突發(fā)狀況做出決策。這些極端情況的發(fā)生概率極低,甚至一生之中都不會(huì)遇見,但至今沒有人能給出一個(gè)明確的答案。

在MIT給出的模擬情境中,用戶將面對(duì)一系列極端場景。究竟一個(gè)人的生命,與一只動(dòng)物的生命孰輕孰重?一個(gè)老人和一個(gè)年輕人呢?一個(gè)男人和一個(gè)女人呢?抑或是,究竟應(yīng)該徑直撞死兩個(gè)犯罪分子和兩個(gè)無辜路人,還是沖下懸崖放棄駕駛員與三個(gè)無辜乘客的生命?

當(dāng)人工智能遇上“倫理”,無人駕駛汽車如何面對(duì)死亡?

上面這些問題并沒有“正確答案“,據(jù)雷鋒網(wǎng)了解,此項(xiàng)調(diào)查的初衷,也是在于收集人類對(duì)于不同情景下的直觀感覺,從而使AI的選擇更符合人類的預(yù)期,或者說,讓AI的殘酷選擇,達(dá)到絕大多數(shù)人可以接受的程度。

無人駕駛的倫理困局

毫無疑問,無人駕駛汽車將在未來大大降低交通事故概率,并拯救更多生命。但隨著無人駕駛應(yīng)用的普及,總有一天會(huì)陷入諸如上述的倫理困局,汽車的智能決策系統(tǒng)需要對(duì)一小部分人的意外負(fù)責(zé),而在這之前,做這件事的一直都是人類自己。

MIT的實(shí)驗(yàn)一定程度上帶來了思考,但也有評(píng)論指責(zé)其過分消費(fèi)“倫理”,造成了邏輯漏洞。因?yàn)檫@項(xiàng)研究,是建立在對(duì)不同行人的長幼、身份、社會(huì)地位等標(biāo)簽的認(rèn)知基礎(chǔ)上的,嚴(yán)肅而不太恰當(dāng)?shù)卣f,如果研究數(shù)據(jù)將拯救性命的優(yōu)先級(jí)排序?yàn)榫?gt;普通職員>退休員工>一只狗,難道真的可以以此指導(dǎo)無人駕駛車的倫理決策嗎?

有媒體認(rèn)為,這種決策思路建立在了自動(dòng)駕駛對(duì)人類有某種認(rèn)知的前提下,但至少目前,自動(dòng)駕駛技術(shù)并不會(huì)達(dá)到這種水平。例如,如果質(zhì)疑一個(gè)人的生命價(jià)值高于其他人,那么前提是自動(dòng)駕駛汽車能夠辨別哪個(gè)人具有更高價(jià)值。

此前也有車廠提出比較鮮明的觀點(diǎn),據(jù)雷鋒網(wǎng)了解,去年10月,梅賽德斯-奔馳公司某高管在面對(duì)“電車難題”時(shí)對(duì)媒體表示,“奔馳自動(dòng)駕駛汽車未來會(huì)致力于保護(hù)車內(nèi)乘客的生命,必要時(shí)不惜一切代價(jià)?!?/p>

雖然戴姆勒隨后出面否認(rèn)了這一說法,但這卻成為車廠無法逃避的問題:如果用戶發(fā)現(xiàn)你的自動(dòng)駕駛汽車程序,編寫的是一段保護(hù)“橫穿馬路”行人的代碼,他還會(huì)為你的產(chǎn)品買單嗎?

《自然》雜志的最新研究報(bào)告也顯示,即便有明確的規(guī)則出臺(tái),指導(dǎo)無人駕駛汽車在事故面前決策,也不會(huì)改變用戶目前不信任的想法。如果“總會(huì)有人犧牲”,將這個(gè)選擇權(quán)交由機(jī)器,不會(huì)得到多數(shù)人的支持,甚至可能導(dǎo)致人們拒絕購買自動(dòng)駕駛汽車。當(dāng)然,長期來看,非自動(dòng)駕駛會(huì)導(dǎo)致更多的死亡,可人們寧肯將選擇權(quán)交給自己。

我們能夠做什么?

谷歌X實(shí)驗(yàn)室曾在公開采訪中回應(yīng)過這個(gè)問題,當(dāng)時(shí)Waymo還沒有作為單獨(dú)的公司被剝離。X實(shí)驗(yàn)室自動(dòng)駕駛項(xiàng)目的首席工程師Andrew Chatham(安德魯·查塔姆)表示,“至少目前谷歌的所有路測活動(dòng)中,還沒有遇到一個(gè)場景讓我們選擇是拯救一個(gè)老人還是嬰兒,但如果這一刻真的到來,那通常只是意味著幾秒前你已經(jīng)犯下一個(gè)更大的錯(cuò)誤?!?/p>

所以,他們的目標(biāo),更多是通過優(yōu)化汽車的剎車決策時(shí)間,最大限度阻止這種情境的發(fā)生。

MIT的方法對(duì)人類而言并非最優(yōu)解,正如一位評(píng)論者所言,“如果這種排序是我們面對(duì)機(jī)器倫理問題最好的點(diǎn)子,只能說人類還沒有準(zhǔn)備好迎接由機(jī)器智能決策的未來?!?/p>

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

分享:
相關(guān)文章

編輯

相信文字的分量。多多交流,微信(859258333)。
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說