0
本文作者: 石松 | 2017-09-06 18:34 |
雷鋒網(wǎng) AI 科技評論按:8月中旬的時候,斯克等 26 國 AI 技術領袖公車上書要求聯(lián)合國禁止“殺人機器人”的研發(fā)與使用這件事喚起了人們對人工智能使用和監(jiān)管的新一輪擔憂?,F(xiàn)在 AI 已經(jīng)開始取代部分人的工作,以后 AI 難道還要用來殺死人類嗎?雖然全球各大 AI 研究機構都在盡量開放自己的成果,促進發(fā)展的同時避免技術壟斷來減少人們的擔心,但僅僅“開放”并不能解決一切問題。
近日,AI 研究機構艾倫人工智能研究院(Allen Institute for Artificial Intelligence)院長、華盛頓大學教授 Oren Etzioni 也在紐約時報發(fā)表了一篇文章,講述了他對人工智能監(jiān)管的看法。Oren Etzioni 在 Tom M. Mitchell 指導下于1991年拿到CMU的博士學位,而后在來到華盛頓大學,擔任計算機工程學院教授;2005年時他牽頭成立了華盛頓大學圖靈中心并任主任,中心的研究領域包括數(shù)據(jù)挖掘、NLP、網(wǎng)絡搜索。Oren Etzioni 在文中提出了他心中的“人工智能三定律”,雷鋒網(wǎng) AI 科技評論將文章編譯如下。
被許多人看作“現(xiàn)實版鋼鐵俠”的美國頂尖科技公司創(chuàng)始人埃隆馬斯克,最近敦促國家有關領導人提早采取措施監(jiān)管人工智能技術。馬斯克堅持認為,人工智能是對人類生存的“潛在威脅”,如同科幻作品中的人工智能,是一個令人擔憂的觀點。不過,即使是像我這樣的研究人員也認識到,人工智能會對武器設計,工作機會和隱私安全產(chǎn)生極大的影響。人們對于是否應該開發(fā)人工智能技術很自然地會產(chǎn)生疑問。
我相信答案是肯定的。但是,為了謹慎,難道我們不應該一步一步地至少減緩人工智能A.I.的開發(fā)進度嗎?問題是如果我們這樣做,那么例如中國這樣的國家就會超過我們。 A.I.之馬已經(jīng)脫韁,我們最好的打算是試圖引導它。 A.I.不應該被武器化,而且任何A.I.必須有一個堅守的“禁地”。除此之外,我們應該規(guī)范A.I.系統(tǒng)對實際應用場景方面的影響,(例如,自動駕駛車輛的安全性),而不是在還未定形且快速發(fā)展的A.I.領域試圖定義和控制某些概念。
我提出了三個有關人工智能系統(tǒng)的規(guī)則,這些想法是受到科幻作家艾薩夫·阿西莫夫1942年提出的“機器人學三律”啟發(fā)的。我在此基礎上做了進一步發(fā)展。阿西莫夫的三定律是:第一、機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;第二、在不違反第一定律的前提下,機器人必須絕對服從人類給與的任何命令;第三、在不違反第一定律和第二定律的前提下,機器人必須盡力保護自己。
這三大定律看上去雖優(yōu)雅簡練但卻模糊不清:當涉及到A.I.時,究竟什么才是傷害?基于我提出的三條規(guī)則,我找到了更為具體的方法來避免A.I.造成傷害。
首先,A.I. 系統(tǒng)必須遵守其操作人員的所有規(guī)則。這套規(guī)則將涵蓋私人,公司和政府機構。 我們不想要A.I. 從事網(wǎng)絡欺凌,股票操縱或恐怖主義威脅; 我們不想要F.B.I. 利用A.I.系統(tǒng)釣魚執(zhí)法。 我們不想要自動駕駛車輛闖紅燈,或者更糟的是制造違反國際條約的A.I. 武器。
我們的一般法規(guī)應該修改,人們不能借口稱是A.I.系統(tǒng)做了一些我們無法理解或預期的事情。簡單地說,“不管我事,是A.I干的”;這不應該成為違法行為的借口。
我的第二條規(guī)則是A.I.系統(tǒng)必須清楚地表明它不是人類。正如我們在一則機器人案例中所見 - 計算機程序可以與真人進行日益復雜的對話 - 人類社會需要確保A.I.系統(tǒng)被清楚地標示出來。在2016年,一個被稱為吉爾·沃森(Jill Watson)的機器人在佐治亞理工大學(Georgia Tech)擔任在線課程的教學助理,愚弄學生,并讓大家以為它是人類。根據(jù)牛津大學的研究人員稱,更為嚴重的例子是在2016年選舉之前的日子里,在社交媒體上廣泛使用的支持特朗普的政治機器人。
我的規(guī)則將確保人們知道機器人何時冒充某人。例如,我們知道@DeepDrumpf - 一個在Twitter上幽默地模仿唐納德·特朗普的機器人。A.I.系統(tǒng)不僅發(fā)出假的推文;它們也發(fā)布假新聞視頻。華盛頓大學的研究人員最近發(fā)布了前總統(tǒng)巴拉克·奧巴馬的假視頻,非常令人信服地似乎在說一些被嫁接到他視頻中的話,真實情況是與他說的完全不同。
我的第三條規(guī)則是若未經(jīng)該信息來源方的明確許可,A.I.系統(tǒng)不能保留或披露機密信息。由于其能自動引用,記錄和分析信息的特殊能力,A.I.系統(tǒng)處于獲取機密信息的主要位置。例如開始被越來越多的家庭接受的“智能音箱”亞馬遜Echo,就可能會記錄下家庭中所有的談話內(nèi)容, 包括那些私密的,或您的孩子可能無意泄露給A.I.的信息。即使看似無害的室內(nèi)清潔機器人也會繪制你家的地圖。這些就是你要確保管控的信息。
我相信這些規(guī)則聽起來還不夠完整。我在這里介紹它們,只為拋磚引玉。無論你是否同意Musk先生關于A.I.的進步速度及其對人類的最終影響的觀點,很明顯的一點是A.I. 已經(jīng)來臨。社會大眾需要做好準備。
Via nytimes,雷鋒網(wǎng) AI 科技評論編譯
雷峰網(wǎng)版權文章,未經(jīng)授權禁止轉載。詳情見轉載須知。