丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
國際 正文
發(fā)私信給天諾
發(fā)送

0

電影看多了吧!能毀滅人類的是“人工非智能”

本文作者: 天諾 2015-03-23 16:00
導(dǎo)語:有害的AI可能和人們所想的超級(jí)智能完全不同,它可能不會(huì)像電影中一樣聰明。能毀滅人類的AI可能非常愚蠢。

電影看多了吧!能毀滅人類的是“人工非智能”

別幻想超級(jí)智慧的AI(人工智能)了,先去考慮下那些愚蠢的算法吧 。

你要做好思想準(zhǔn)備,五月份就要上映《復(fù)仇者聯(lián)盟2:奧創(chuàng)紀(jì)元》,在這之前的幾周時(shí)間里,不少科技網(wǎng)站的編輯和寫手可能會(huì)對(duì)AI大加批判,屆時(shí)會(huì)有一大波文章來闡述AI給現(xiàn)實(shí)生活帶來的威脅。無論《復(fù)仇者聯(lián)盟2》是否會(huì)打破票房紀(jì)錄,至少給我們帶來了另外一種視角,讓我們可以“奧創(chuàng)”的形式,重新審視AI暴動(dòng)。

開發(fā)奧創(chuàng)(由著名影星詹姆斯·斯派德配音)的初衷是維護(hù)世界和平,保護(hù)人類免受其他威脅,但最終它為了追求完美,決定將人類斬盡殺絕。這是好萊塢最新一次,當(dāng)然肯定不會(huì)是最后一次將人工超級(jí)智能融入到電影里面。媒體自然不會(huì)錯(cuò)過這個(gè)好機(jī)會(huì),一定也會(huì)大肆報(bào)道,繼而引發(fā)人們對(duì)AI的深深思考。

能滅絕人類的,是愚蠢的AI。

AI絕不會(huì)完全無害。一些自主算法會(huì)對(duì)人類造成傷害,這是不可避免的。但是對(duì)待AI可能造成的風(fēng)險(xiǎn),還需要進(jìn)一步評(píng)估,至少頭腦需要保持一點(diǎn)冷靜。就像太空中廢棄的衛(wèi)星,你需要識(shí)別它們可能造成的危害,然后再去選擇是把他們變成太空垃圾,還是進(jìn)行廢物利用。

有害的AI可能和人們所想的超級(jí)智能完全不同,它可能不會(huì)像奧創(chuàng)一樣,而能毀滅人類的AI可能非常愚蠢。

種族主義

在AI安全概念的背后,有一股很明顯的勢(shì)頭。今年一月,非營利性組織Future of Life Institute發(fā)布了一份AI安全公開信。但這不是一次業(yè)余的作秀,因?yàn)槌撕芏嗖幻髡嫦嗟娜罕姡恍I(yè)人士也參與其中,包括了計(jì)算機(jī)科學(xué)家,機(jī)器人學(xué)家,以及法律專家。

Ryan Calo就是其中之一,他是華盛頓大學(xué)的法律教授,主攻機(jī)器人領(lǐng)域的法律問題。對(duì)Calo來說,AI的短期風(fēng)險(xiǎn)其實(shí)和智能無關(guān),而是所謂的自主權(quán)。

“我很擔(dān)心會(huì)出現(xiàn)一些意想不到、又萬分緊急的狀況。比如,或許在未來的某天,你會(huì)忽然發(fā)現(xiàn)很多人無法貸款和信用卡,而造成這種狀況的竟然是一個(gè)AI算法,因?yàn)樗惴òl(fā)現(xiàn)他們的主要關(guān)系網(wǎng)絡(luò)為非裔美國人。整個(gè)過程中,沒有人持有種族主義態(tài)度,這無疑是個(gè)巨大的丑聞?!?/p>

Calo的假設(shè)確實(shí)很令人憂心。首先,現(xiàn)實(shí)世界中就存在某些人的權(quán)利被剝奪的狀況,因此有時(shí)候你根本無法分辨哪些狀況是AI造成的,哪些又是人為造成的。在AI的背景下,自主權(quán)的定義就是無需人為干預(yù)。比如程序員可能不會(huì)把某些事關(guān)聯(lián)起來,但AI卻能通過一些純粹的定性分析,實(shí)現(xiàn)它們的“目的”。顯然,這些AI做出的結(jié)論可能不會(huì)準(zhǔn)確,但如果你想想看,一些數(shù)據(jù)代理商和廣告商正是無恥地利用這種AI技術(shù),追蹤人們的線上活動(dòng),收集我們?cè)L問網(wǎng)站的各種信息。

Calo所舉得那個(gè)種族主義例子可能是由于AI連接到錯(cuò)誤的“點(diǎn)”上造成的。實(shí)際上,“種族主義”并不是一個(gè)最具說服力的AI例子,現(xiàn)如今很多更高級(jí)的行為追蹤軟件就在做著不少“骯臟的勾當(dāng)”,在這些軟件面前,一個(gè)小小的“種族主義”算法真的是小巫見大巫了。

另外在Calo眼里,AI其實(shí)不算是個(gè)真正的“種族主義者”。一個(gè)沒有觀點(diǎn)的機(jī)器是不可能帶有任何偏見的。但是,社交和情感智能的缺乏卻會(huì)帶來巨大問題。

“必須從法律上來管理風(fēng)險(xiǎn),讓受害者能夠得到補(bǔ)償。但實(shí)現(xiàn)這種方式,需要找到罪魁禍?zhǔn)?,而可能的情況是會(huì)出現(xiàn)很多受害者,但找不到作惡者。法律此時(shí)也會(huì)顯得蒼白無力了?!?/p>

電影看多了吧!能毀滅人類的是“人工非智能”

無過錯(cuò)戰(zhàn)爭罪行

對(duì)于由AI驅(qū)動(dòng)的機(jī)器人,如果讓他們殺人,此時(shí)可能會(huì)產(chǎn)生戲劇性的影響。在科幻小說里,武裝機(jī)器人經(jīng)常出現(xiàn)戰(zhàn)場暴行,比如一個(gè)中央超級(jí)智能給他們下達(dá)殺人的指令。而更有趣的問題出現(xiàn)在與遠(yuǎn)程通訊機(jī)器人的聯(lián)系中斷時(shí)。

當(dāng)軍事機(jī)器人進(jìn)攻某個(gè)目標(biāo)時(shí),一般而言都會(huì)有人類參與。但當(dāng)無人機(jī)或地面機(jī)器人忽然通訊中斷,又會(huì)出現(xiàn)什么狀況呢?是停止?還是撤退,又或是暴露在敵人的炮火中,或被俘虜?去年六月,美國國防部高級(jí)研究計(jì)劃局旗下的Robotics Challenge項(xiàng)目就進(jìn)行了一次機(jī)器人模擬戰(zhàn)爭,他們的答案是通訊中斷后,繼續(xù)完成任務(wù)。

此外,還可能出現(xiàn)其他狀況,比如武裝機(jī)器人很可能引發(fā)戰(zhàn)爭罪行,因?yàn)樗麄兛赡芎鋈话雅彂?zhàn)場的平民百姓列為進(jìn)攻目標(biāo),也不會(huì)放過戰(zhàn)敗投降的士兵。也有一些容易界定的情況,比如機(jī)器人出現(xiàn)故障,會(huì)向人群開火,濫殺無辜。

問題的重點(diǎn)在于,由于AI可以獨(dú)立執(zhí)行殺戮行為,沒有人能對(duì)此負(fù)責(zé)。

“在戰(zhàn)爭罪中,上級(jí)必須要對(duì)下屬所犯下的罪行負(fù)責(zé),也就是說從法律角度上來看,上級(jí)必須有效地控制下屬。但如果軍事指揮官無法有效控制機(jī)器人(AI機(jī)器人可以自主選擇殺人),是否意味著他們就沒有責(zé)任?”

機(jī)器人專家和各國需要為各種情況做好準(zhǔn)備,明確道德和法律之間的灰色底單,因?yàn)橐坏o知的機(jī)器人自主權(quán)泛濫,那么許多暴行將會(huì)逃脫歷史的懲罰。

股票崩盤,肢體損缺,以及其他日常災(zāi)害

當(dāng)然,絕大多數(shù)的AI還是比較安全,即便出現(xiàn)問題,也不至于殺人。毋庸置疑,一些自主選股軟件又會(huì)再次浮出水面,繼而有可能再次引發(fā)2010年那場“閃電崩盤”的股災(zāi)——當(dāng)時(shí)道瓊斯指數(shù)在短短幾分鐘時(shí)間里下跌1000多點(diǎn)。其他AI也會(huì)曲解敏感數(shù)據(jù),引發(fā)一系列悲劇發(fā)生,一旦數(shù)據(jù)分析有誤,工廠里干活的機(jī)器人和養(yǎng)老院里的機(jī)器人會(huì)錯(cuò)誤對(duì)待人類。

電影看多了吧!能毀滅人類的是“人工非智能”

上面這些例子其實(shí)并不算太嚴(yán)重,因?yàn)檫€有很多聳人聽聞的,雖然研究人員和機(jī)器人專家鉆研AI安全是非??菰锏?,但是如果不真正對(duì)待的話,很多悲劇是無法避免的。

事實(shí)上,AI還有一個(gè)潛在缺陷,那就是假設(shè)它比實(shí)際上的還聰明。隨著越來越多的機(jī)器人融入到人類的生活,高估AI能力很可能會(huì)導(dǎo)致實(shí)際傷害?!拔磥淼姆较?,是機(jī)器人與人類并肩工作,”Tony Stentz說道,他是卡耐基梅隆大學(xué)機(jī)器人技術(shù)工程中心主管。Stentz理想中的未來工廠,是機(jī)器人的力量與人類的思維完美結(jié)合,這種團(tuán)隊(duì)是非常有前途的。但是AI研究人員和機(jī)器人專家必須要讓機(jī)器人明白自己的目標(biāo)和能力,否則為造成非常大的安全隱患。

要明白機(jī)器人能做哪些,不能做哪些

高估AI會(huì)導(dǎo)致一系列問題。在美國馬里蘭州,當(dāng)?shù)乇O(jiān)獄已經(jīng)開始使用算法來評(píng)估哪些假釋犯人需要嚴(yán)加監(jiān)管。軟件開發(fā)人員肯定覺得自己的產(chǎn)品對(duì)于量刑建議有非常大的幫助,但問題是,當(dāng)涉及到如此重大的決定時(shí),依靠一個(gè)智能軟件真的靠譜嗎?

不僅如此,一旦AI自主權(quán)得不到有效控制,很可能出現(xiàn)所謂的“滑坡效應(yīng)”,引發(fā)全球危機(jī)。比如工人本可以在工作中避免受傷,但是由于算法錯(cuò)誤卻導(dǎo)致殘疾;還有人可能受智能選股軟件的誘導(dǎo),把畢生的積蓄砸進(jìn)股票市場,最終家破人亡??膳碌氖?,這些受害者可能會(huì)忽然發(fā)現(xiàn),自己竟然得不到法律保護(hù),甚至連財(cái)務(wù)追索權(quán)都沒有(靠機(jī)器人賺錢的想法的確有些愚蠢)。

這些AI安全問題,正是研究人員和專家需要考慮的,他們也必須要考慮各種非預(yù)期后果,如果說我們無法阻止超級(jí)AI接管世界,但至少,我們得明白它們會(huì)給我們?cè)斐赡男撛谟绊憽?/p>

VIA POPSCI

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

分享:
相關(guān)文章
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說