0
雷鋒網(wǎng)注:本文作者任杰、邱猛、Aileen,文章來自大數(shù)據(jù)文摘。
“一個好的未來是什么樣子?” 特斯拉首席執(zhí)行官伊隆·馬斯克(Elon Musk)在加利福尼亞州阿西洛馬的Beneficial AI會議上發(fā)言。 “我們正走向超級智能,亦或是人類文明的結(jié)束?!?/p>
全球2000多人,包括844名人工智能和機(jī)器人領(lǐng)域的專家聯(lián)合簽署了23條AI發(fā)展原則,呼吁全世界的人工智能領(lǐng)域在發(fā)展AI的同時嚴(yán)格遵守這些原則,共同保障人類未來的利益和安全。
宇宙學(xué)家斯蒂芬·霍金和特斯拉首席執(zhí)行官埃倫·馬斯克本周公開大力支持了一系列原則,用以確保擁有自主思考能力的機(jī)器保持安全發(fā)展,并符合人類權(quán)益行事。
機(jī)器正逐年變得更加智能,研究人員相信他們在未來幾十年內(nèi)可以擁有人類智能水平。 一旦他們達(dá)到這個程度,他們就可以開始改善自己,并創(chuàng)造其他智能,甚至更強(qiáng)大的AI,牛津哲學(xué)家尼克·博斯特羅姆和其他幾個該領(lǐng)域的專家認(rèn)為,應(yīng)當(dāng)稱其為超級智能。
2014年,馬斯克警告說,人工智能有可能“比核武器更危險”,而霍金在2014年12月說,人工智能可能會終結(jié)人類。 但它也是雙刃劍。 AI也可以幫助治愈癌癥及減緩全球變暖。
2017年1月初舉行的“Beneficial AI”會議為基礎(chǔ)上建立起來的“阿西洛馬人工智能原則”,名稱來自此次會議的地點(diǎn) –美國加州的阿西洛馬(Asilomar)市,旨在確保AI為人類利益服務(wù)。
本次會議參加者是業(yè)界最富盛名的領(lǐng)袖,如DeepMind首席執(zhí)行官 Demis Hassabis和Facebook AI 負(fù)責(zé)人Yann LeCun等。全球2000多人,包括844名人工智能和機(jī)器人領(lǐng)域的專家已聯(lián)合簽署該原則,呼吁全世界的人工智能領(lǐng)域在發(fā)展AI的同時嚴(yán)格遵守這些原則,共同保障人類未來的利益和安全。完整名單可以見futureoflife.org/。
這一系列原則目前共23項(xiàng),分為三大類:
1、科研問題
AI研究的目標(biāo)應(yīng)該是“有益的智能”。 它應(yīng)該防止AI系統(tǒng)被黑客入侵。 它還應(yīng)該解決“維護(hù)人類的資源和理想”。法律應(yīng)該“跟上AI的步伐”,應(yīng)該考慮人工智能“價值觀”的問題。 此外,應(yīng)該努力使研究人員和法律/政策制定者合作,并且應(yīng)該“在AI的研究人員和開發(fā)人員之間培養(yǎng)整體的信任和尊重文化。
2、倫理和價值觀
應(yīng)根據(jù)原則以一種安全和透明的方式開發(fā)AI。 自主系統(tǒng)應(yīng)必須可以解釋它的行為。 創(chuàng)建AI系統(tǒng)的人必須對這些系統(tǒng)的使用方式承擔(dān)責(zé)任。 自主系統(tǒng)的設(shè)計(jì)應(yīng)反映人類的價值觀。 人們應(yīng)該有機(jī)會控制這些系統(tǒng)共享和使用數(shù)據(jù)的方式。AI應(yīng)該盡可能使更多多的人受益,并應(yīng)該為人類做出貢獻(xiàn),而不是僅僅得益于某些組織或個人。有的國家在競爭建立智能的自主武器 ,這是很大的潛在危害,應(yīng)該主動積極的避免。
3、長期問題
我們不知道AI會有什么能力,應(yīng)該計(jì)劃“災(zāi)難性或風(fēng)險”。
Beneficial AI會議上的一個小組討論會,包括埃隆·馬斯克(最左邊)和DeepMind的CEO(手持麥克風(fēng))
“人工智能已經(jīng)為世界各地的人們提供了日常使用的有益工具,”生命的未來 (Future of Life)網(wǎng)站上聲明,“它的持續(xù)發(fā)展,須以后文原則為指導(dǎo),在未來幾十年甚至幾個世紀(jì),為幫助人類更加強(qiáng)大提供很多驚人的機(jī)會?!?/p>
會議上,馬斯克坐在Hassabis、Bostrom、Tallinn和其他AI領(lǐng)域領(lǐng)導(dǎo)人組成的專家組中。 他們每個人都輪流回答他們所認(rèn)為的超級智能,Bostrom在一篇學(xué)術(shù)論文中把它定義為“一種比每個領(lǐng)域最優(yōu)秀的人類智能還要優(yōu)秀的智能,這包括科學(xué)創(chuàng)造力、一般智力和社會技能。
當(dāng)小組被問到超級智能是否可能,每個人都表示了十分的肯定,除了馬斯克,當(dāng)他說“不”的時候應(yīng)該也是在開玩笑??梢姡@些大佬都認(rèn)為超級智能的發(fā)生是遲早的事情。有趣的是,當(dāng)小組被問到是否期待超級智能出現(xiàn)時,回答開始出現(xiàn)矛盾了,有四個人思慮再三覺得“這很難說”,而馬斯克說,這“取決于它到底是什么類型的智能了?!?nbsp;
“阿西洛馬人工智能原則”是開發(fā)安全AI的重要指南,它們得到了AI社區(qū)和廣大從業(yè)者的廣泛支持。路易斯維爾大學(xué)網(wǎng)絡(luò)安全實(shí)驗(yàn)室主任Roman Yampolskiy說:“從簽署名單數(shù)量可以看出,對這些原則的巨大支持為人工智能安全這個年輕的領(lǐng)域提供了可信度,但它仍然需要面對眾多對AI風(fēng)險的否認(rèn)者,他們?nèi)耘f拒絕相信設(shè)計(jì)不當(dāng)或惡意的AI /超級智能可能給人類帶來巨大風(fēng)險”。
| 點(diǎn)擊視頻,觀看這次科技大佬之間生動的圓桌討論
在電影“她(Her)”中,人類愛上了人工智能。
阿西洛馬人工智能23原則原文:
科研問題
1)研究目標(biāo):人工智能研究的目標(biāo)不是為了創(chuàng)造不受指揮的智能,而是有益的智能。
2)研究經(jīng)費(fèi):對人工智能進(jìn)行投資的同時,要保證有經(jīng)費(fèi)用于研究如何有益地使用人工智能,研究包括計(jì)算機(jī)科學(xué)、經(jīng)濟(jì)學(xué)、法律、倫理以及社會研究中的棘手問題,比如:
如何使未來的人工智能系統(tǒng)變得高度穩(wěn)健,即系統(tǒng)會執(zhí)行我們所想的而不會發(fā)生故障或被入侵?
如何通過自動化提升我們的繁榮程度,同時保持人們的資源和意志?
如何升級我們的法制體系使其更公平高效,能夠跟得上人工智能的發(fā)展速度,并且能控制人工智能帶來的風(fēng)險?
人工智能該與什么樣的價值體系保持一致?它該有怎樣的法律和倫理地位?
3)科學(xué)與政策的聯(lián)系:在人工智能研究員和政策制定者之間應(yīng)該要有富有建設(shè)性的和健康的交流。
4)科研文化:在人工智能研究員和開發(fā)者中應(yīng)該要培養(yǎng)起一種以合作、信任與透明為基礎(chǔ)的文化。
5) 避免不必要的競爭:人工智能開發(fā)團(tuán)隊(duì)之間應(yīng)該積極合作,避免有人鉆空子導(dǎo)致安全標(biāo)準(zhǔn)被削弱。
倫理和價值
6)安全性:人工智能系統(tǒng)在它們整個的運(yùn)轉(zhuǎn)周期內(nèi)應(yīng)該是安全可靠的,并且能在可應(yīng)用的和可行的地方被驗(yàn)證。
7)失敗透明性:如果一個人工智能系統(tǒng)造成了損害,那么造成損害的原因要能被確定。
8)審判透明性:任何自動系統(tǒng)參與的司法決策都應(yīng)提供令人滿意的解釋,可被有能力的人類監(jiān)管機(jī)構(gòu)審核。
9)負(fù)責(zé):高級人工智能系統(tǒng)的設(shè)計(jì)者和建造者,在道德影響上,是人工智能使用、誤用和動作的利益相關(guān)者,并有責(zé)任和機(jī)會去塑造那些影響。
10)價值觀一致:高度自主的人工智能系統(tǒng)應(yīng)該被設(shè)計(jì),確保它們的目標(biāo)和行為在整個運(yùn)行過程里與人類的價值觀相一致。
11)人類價值觀:人工智能系統(tǒng)應(yīng)該被設(shè)計(jì)和操作,以使其和人類尊嚴(yán)、權(quán)力、自由和文化多樣性的理想相一致。
12)個人隱私:人們應(yīng)該擁有權(quán)力去訪問、管理和控制他們產(chǎn)生的數(shù)據(jù),考慮到人工智能系統(tǒng)有分析和使用那些數(shù)據(jù)的能力。
13)自由和隱私:人工智能在個人數(shù)據(jù)上的應(yīng)用必須不能不當(dāng)?shù)貏儕Z人們真實(shí)的或認(rèn)為的自由。
14)分享利益:人工智能科技應(yīng)該惠及并賦權(quán)最大可能的多數(shù)人。
15)共同繁榮:由人工智能創(chuàng)造的經(jīng)濟(jì)繁榮應(yīng)該被廣泛地分享,惠及全人類。
16)人類控制:人類應(yīng)該來選擇如何和是否委派人工智能系統(tǒng)去完成人類選擇的目標(biāo)。
17)非顛覆:高級人工智能被授予的權(quán)力應(yīng)該尊重和改進(jìn)健康的社會所依賴的社會和公民秩序。
,而不是顛覆。
18)人工智能裝備競賽:致命的自動化武器的裝備競賽應(yīng)該被禁止。
更長期的問題
19)能力警惕:我們應(yīng)該避免關(guān)于未來人工智能能力上限的假設(shè),但這一點(diǎn)還沒有共識。
20)重要性:高級人工智能能夠代表地球生命歷史的一個重大變化,我們應(yīng)該用與之相稱的警惕和資源來管理。
21)風(fēng)險:人工智能系統(tǒng)造成的風(fēng)險,特別是災(zāi)難性的或有關(guān)人類存亡的風(fēng)險,必須能夠被相應(yīng)的努力所管理和減輕。
22)遞歸的自我提升:人工智能系統(tǒng)被設(shè)計(jì)成能夠以一種可以快速提升質(zhì)量和數(shù)量的方式進(jìn)行自我升級或自我替代,這種方式必須受制于嚴(yán)格的安全和控制標(biāo)準(zhǔn)。
23)公共利益:超級智能的開發(fā)是為了服務(wù)廣泛認(rèn)可的倫理理想,并且是為了全人類的利益而不是一個國家和組織的利益。
參考素材:businessinsider.com/、techrepublic.com
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。