丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
業(yè)界專題 正文
發(fā)私信給算盤子
發(fā)送

1

當機器人遇到道德選擇時,應(yīng)該由誰來做決定?

本文作者: 算盤子 2014-09-03 11:35
導(dǎo)語:最近,機器人道德倡議組織Open Roboethics Initiative對公眾進行了一項調(diào)查——當機器人遇到道德選擇時,應(yīng)該由誰來做決定?。77%的受訪者認為應(yīng)該由用戶自己或者立法者來做這個決定。認為應(yīng)該由制造商和設(shè)計師做決定的受訪者只有12%。

當機器人遇到道德選擇時,應(yīng)該由誰來做決定?

最近,倫理學(xué)家Patrick Lin在一篇文章中表示,在未來的無人駕駛汽車中加入一個可編程的道德按鈕,并不是解決這項新科技帶來的道德上的不適應(yīng)的最佳方案。不過,直接忽視你的道德選擇的無人駕駛汽車難道不是更糟糕嗎?顯然,對于這個問題有一個中庸的解決方案,我們只消看看現(xiàn)代醫(yī)療就能找到答案。

首先,我們先來做一個思想實驗,這個實驗與Patrick Lin文章中的那個差不多,叫做“隧道問題”:你坐在一輛疾馳在單行道山路上的無人駕駛汽車里,這輛車正以飛快的速度靠近一個狹窄的隧道。就在你所乘坐的汽車進入隧道前的一刻,一個小孩冒了出來,并走到了路中間,正好擋住了隧道的入口。這時剎車已經(jīng)來不及避免事故。無人駕駛汽車只有兩個選擇,一是直接沖過去,但這會導(dǎo)致小孩死亡;二是快速轉(zhuǎn)向撞向隧道的任意一邊,但這會讓你喪生。

現(xiàn)在,你問問自己,汽車是應(yīng)該直接沖過去還是轉(zhuǎn)向,由誰來做這個決定?汽車廠商?用戶?立法者?

最近,機器人道德倡議組織Open Roboethics Initiative就這一問題對公眾進行了一項調(diào)查。調(diào)查顯示,77%的受訪者認為應(yīng)該由用戶自己或者立法者來做這個決定。認為應(yīng)該由汽車制造商和設(shè)計師做決定的受訪者只有12%。

我們應(yīng)該對這個調(diào)查結(jié)果感到驚訝嗎?也許不應(yīng)該。這個“隧道問題”引發(fā)了一個深刻的道德問題,而且是個沒有正確答案的問題。在這種情況下,個人內(nèi)心的道德責(zé)任感,對于是選擇沖過去還是轉(zhuǎn)向有著重要的影響。

根據(jù)Bernard Williams等哲學(xué)家的觀點,我們的道德責(zé)任感有時會勝過其它道德方面的考慮,即使是違反直覺的,比如犧牲大多數(shù)人成全少數(shù)人。在這個隧道問題上,如果直接否認個人擁有自己的道德偏好,將決定直接預(yù)先植入到汽車中,很有可能會違背用戶的信念。這絕對不合適。

一個現(xiàn)成的解決方案

醫(yī)療領(lǐng)域,當必須做出道德選擇的時候,標準的做法是護士和醫(yī)生通知病人,并告知他們所有合理的治療選項,然后讓病人在知情的情況下做出符合自己偏好的選擇。這個知情同意書達成的過程,遵循了個人有權(quán)利對自己的身體做出決策的理念。醫(yī)療領(lǐng)域的知情同意書已經(jīng)在道德上和法律上獲得了認可,對于哪些未與病人達成知情同意書而私自替病人做選擇的醫(yī)護工作者將面臨不作為的指控。

知情同意書并非一開始就是醫(yī)療領(lǐng)域的標準做法。以前,更通行的做法是醫(yī)生代表病人在重要治療決策中做選擇,醫(yī)生們常常以這是醫(yī)療計劃的一部分來欺騙病人。

知情同意書的引入并非為了簡化辦事流程。事實上,這個做法反而讓整個醫(yī)療過程的決策變得相當復(fù)雜。知情同意書讓病人的負擔(dān)明顯加重,因為他們必須在各種選項中做出艱難的抉擇。同時,這個做法也讓醫(yī)護工作者有了另一種不作為的可能性。此外,這個做法還增加了醫(yī)療機構(gòu)的成本,因為醫(yī)生需要花時間與病人進行艱難的交談,還需要完成一些文書的簽署工作。由于醫(yī)療領(lǐng)域是一個專業(yè)性非常強的領(lǐng)域,因此醫(yī)生在告知病人選項的時候,往往非常艱難,作為外行的病人也很可能根本無法理解醫(yī)生所說的那些醫(yī)學(xué)概念。

你也可以認為,知情同意書將責(zé)任全部轉(zhuǎn)移到了病人的身上。反對者認為,知情同意書是不公平的,它將個人至于各種艱難、難以理解的選擇之中,由于缺乏相應(yīng)的知識使得個人在選擇面前陷入了手足無措的境地之中。

然而,盡管知情同意書帶來了一些挑戰(zhàn)和各種麻煩,但是很難想象人們會愿意回到那個醫(yī)生和護士可以在沒有事先征求他們同意的情況下,替他們做出道德選擇的年代。

那么我們又為什么要接受無人駕駛汽車的設(shè)計者和工程師,在遇到前文所述的隧道問題的時候在未征得我們明確同意的情況下,代表我們做出道德選擇呢?解決這個道德問題的一個可行的解決方案就是,在工程領(lǐng)域效仿在醫(yī)療行業(yè)久經(jīng)考驗的做法——引入標準完善的知情同意書。當然,實現(xiàn)這一點的其中一種方式(還有很多其它方式)就是在無人駕駛汽車中植入各種合理可行的道德選項,由用戶自行選擇設(shè)置。

是時候重新考慮機器人的責(zé)任了?

很顯然,無論機器人學(xué)家如何設(shè)計機器人,只要出了事律師還是會起訴人,而非機器人。此外,如果我們依然遵循傳統(tǒng)的產(chǎn)品責(zé)任法的話,那么毫無疑問引入這種道德設(shè)置選項一定會讓用戶和廠商面臨更多的新型責(zé)任訴訟,正如知情同意書的出現(xiàn)在醫(yī)療領(lǐng)域引起的各種糾紛一樣。

盡管如此,還是有越來越多的人相信我們需要在法律上重新認真思考,我們是否對無人駕駛汽車和其它類型的機器人實行了合理的管制。

首先,我們可以考慮將制造商未能及時與用戶在涉及道德選擇的問題上達成知情同意書的情況,視為產(chǎn)品存在缺陷。正如當醫(yī)生未能在執(zhí)行一種醫(yī)學(xué)治療前與病人達成知情同意書時,將被視為不作為一樣,我們也可以認為如果制造商在無人駕駛汽車的設(shè)計和其它技術(shù)方面對用戶個人的具體道德偏好不尊重的話,將需要對由此引起的問題承擔(dān)一定的責(zé)任。這個方案可能會讓無人駕駛汽車的設(shè)計復(fù)雜度增加。不過,誰說過制造機器人是一件很簡單的事情嗎?

我們必須擁抱復(fù)雜

如果我們在工程上引入一個健全的知情同意書制度,將可以避免很多麻煩的事情。當然,在給予用戶的道德設(shè)置選項的數(shù)量上需要做些限制。因為如果你給用戶的選擇中包含“如果擋路的是個女人就直接撞過去”的話,將會顯得非?;闹?。與此同時,如果允許用戶選擇犧牲自己以保護小孩的生命,將顯得相當合理。只要這是符合用戶的道德價值取向。即使這個任務(wù)比較復(fù)雜,但是對于哪些選項應(yīng)該限制,還是很容易識別的。

機器人以及他們所引起的道德問題,極其復(fù)雜。但是如果我們想要轉(zhuǎn)變我們對于工程和設(shè)計的道德思考,并且合理應(yīng)對日益壯大的機器人行業(yè)所帶來的問題的話,我們就必須認真關(guān)注和思考這個極其復(fù)雜的問題,而不是逃避。這個思維上的轉(zhuǎn)變意味著我們必須擁抱復(fù)雜,因為道德和法律從來都是復(fù)雜的。不幸的是,即使在混亂中加入秩序,也不一定能夠造就一個簡單的世界。

Via:Wired

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

分享:
相關(guān)文章

編輯

其實,算盤子是一種小吃。
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說