丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
國際 正文
發(fā)私信給天諾
發(fā)送

0

電影看多了吧!能毀滅人類的是“人工非智能”

本文作者: 天諾 2015-03-23 16:00
導語:有害的AI可能和人們所想的超級智能完全不同,它可能不會像電影中一樣聰明。能毀滅人類的AI可能非常愚蠢。

電影看多了吧!能毀滅人類的是“人工非智能”

別幻想超級智慧的AI(人工智能)了,先去考慮下那些愚蠢的算法吧 。

你要做好思想準備,五月份就要上映《復仇者聯盟2:奧創(chuàng)紀元》,在這之前的幾周時間里,不少科技網站的編輯和寫手可能會對AI大加批判,屆時會有一大波文章來闡述AI給現實生活帶來的威脅。無論《復仇者聯盟2》是否會打破票房紀錄,至少給我們帶來了另外一種視角,讓我們可以“奧創(chuàng)”的形式,重新審視AI暴動。

開發(fā)奧創(chuàng)(由著名影星詹姆斯·斯派德配音)的初衷是維護世界和平,保護人類免受其他威脅,但最終它為了追求完美,決定將人類斬盡殺絕。這是好萊塢最新一次,當然肯定不會是最后一次將人工超級智能融入到電影里面。媒體自然不會錯過這個好機會,一定也會大肆報道,繼而引發(fā)人們對AI的深深思考。

能滅絕人類的,是愚蠢的AI。

AI絕不會完全無害。一些自主算法會對人類造成傷害,這是不可避免的。但是對待AI可能造成的風險,還需要進一步評估,至少頭腦需要保持一點冷靜。就像太空中廢棄的衛(wèi)星,你需要識別它們可能造成的危害,然后再去選擇是把他們變成太空垃圾,還是進行廢物利用。

有害的AI可能和人們所想的超級智能完全不同,它可能不會像奧創(chuàng)一樣,而能毀滅人類的AI可能非常愚蠢。

種族主義

在AI安全概念的背后,有一股很明顯的勢頭。今年一月,非營利性組織Future of Life Institute發(fā)布了一份AI安全公開信。但這不是一次業(yè)余的作秀,因為除了很多不明真相的群眾,一些專業(yè)人士也參與其中,包括了計算機科學家,機器人學家,以及法律專家。

Ryan Calo就是其中之一,他是華盛頓大學的法律教授,主攻機器人領域的法律問題。對Calo來說,AI的短期風險其實和智能無關,而是所謂的自主權。

“我很擔心會出現一些意想不到、又萬分緊急的狀況。比如,或許在未來的某天,你會忽然發(fā)現很多人無法貸款和信用卡,而造成這種狀況的竟然是一個AI算法,因為算法發(fā)現他們的主要關系網絡為非裔美國人。整個過程中,沒有人持有種族主義態(tài)度,這無疑是個巨大的丑聞?!?/p>

Calo的假設確實很令人憂心。首先,現實世界中就存在某些人的權利被剝奪的狀況,因此有時候你根本無法分辨哪些狀況是AI造成的,哪些又是人為造成的。在AI的背景下,自主權的定義就是無需人為干預。比如程序員可能不會把某些事關聯起來,但AI卻能通過一些純粹的定性分析,實現它們的“目的”。顯然,這些AI做出的結論可能不會準確,但如果你想想看,一些數據代理商和廣告商正是無恥地利用這種AI技術,追蹤人們的線上活動,收集我們訪問網站的各種信息。

Calo所舉得那個種族主義例子可能是由于AI連接到錯誤的“點”上造成的。實際上,“種族主義”并不是一個最具說服力的AI例子,現如今很多更高級的行為追蹤軟件就在做著不少“骯臟的勾當”,在這些軟件面前,一個小小的“種族主義”算法真的是小巫見大巫了。

另外在Calo眼里,AI其實不算是個真正的“種族主義者”。一個沒有觀點的機器是不可能帶有任何偏見的。但是,社交和情感智能的缺乏卻會帶來巨大問題。

“必須從法律上來管理風險,讓受害者能夠得到補償。但實現這種方式,需要找到罪魁禍首,而可能的情況是會出現很多受害者,但找不到作惡者。法律此時也會顯得蒼白無力了?!?/p>

電影看多了吧!能毀滅人類的是“人工非智能”

無過錯戰(zhàn)爭罪行

對于由AI驅動的機器人,如果讓他們殺人,此時可能會產生戲劇性的影響。在科幻小說里,武裝機器人經常出現戰(zhàn)場暴行,比如一個中央超級智能給他們下達殺人的指令。而更有趣的問題出現在與遠程通訊機器人的聯系中斷時。

當軍事機器人進攻某個目標時,一般而言都會有人類參與。但當無人機或地面機器人忽然通訊中斷,又會出現什么狀況呢?是停止?還是撤退,又或是暴露在敵人的炮火中,或被俘虜?去年六月,美國國防部高級研究計劃局旗下的Robotics Challenge項目就進行了一次機器人模擬戰(zhàn)爭,他們的答案是通訊中斷后,繼續(xù)完成任務。

此外,還可能出現其他狀況,比如武裝機器人很可能引發(fā)戰(zhàn)爭罪行,因為他們可能忽然把毗鄰戰(zhàn)場的平民百姓列為進攻目標,也不會放過戰(zhàn)敗投降的士兵。也有一些容易界定的情況,比如機器人出現故障,會向人群開火,濫殺無辜。

問題的重點在于,由于AI可以獨立執(zhí)行殺戮行為,沒有人能對此負責。

“在戰(zhàn)爭罪中,上級必須要對下屬所犯下的罪行負責,也就是說從法律角度上來看,上級必須有效地控制下屬。但如果軍事指揮官無法有效控制機器人(AI機器人可以自主選擇殺人),是否意味著他們就沒有責任?”

機器人專家和各國需要為各種情況做好準備,明確道德和法律之間的灰色底單,因為一旦無知的機器人自主權泛濫,那么許多暴行將會逃脫歷史的懲罰。

股票崩盤,肢體損缺,以及其他日常災害

當然,絕大多數的AI還是比較安全,即便出現問題,也不至于殺人。毋庸置疑,一些自主選股軟件又會再次浮出水面,繼而有可能再次引發(fā)2010年那場“閃電崩盤”的股災——當時道瓊斯指數在短短幾分鐘時間里下跌1000多點。其他AI也會曲解敏感數據,引發(fā)一系列悲劇發(fā)生,一旦數據分析有誤,工廠里干活的機器人和養(yǎng)老院里的機器人會錯誤對待人類。

電影看多了吧!能毀滅人類的是“人工非智能”

上面這些例子其實并不算太嚴重,因為還有很多聳人聽聞的,雖然研究人員和機器人專家鉆研AI安全是非常枯燥的,但是如果不真正對待的話,很多悲劇是無法避免的。

事實上,AI還有一個潛在缺陷,那就是假設它比實際上的還聰明。隨著越來越多的機器人融入到人類的生活,高估AI能力很可能會導致實際傷害?!拔磥淼姆较?,是機器人與人類并肩工作,”Tony Stentz說道,他是卡耐基梅隆大學機器人技術工程中心主管。Stentz理想中的未來工廠,是機器人的力量與人類的思維完美結合,這種團隊是非常有前途的。但是AI研究人員和機器人專家必須要讓機器人明白自己的目標和能力,否則為造成非常大的安全隱患。

要明白機器人能做哪些,不能做哪些

高估AI會導致一系列問題。在美國馬里蘭州,當地監(jiān)獄已經開始使用算法來評估哪些假釋犯人需要嚴加監(jiān)管。軟件開發(fā)人員肯定覺得自己的產品對于量刑建議有非常大的幫助,但問題是,當涉及到如此重大的決定時,依靠一個智能軟件真的靠譜嗎?

不僅如此,一旦AI自主權得不到有效控制,很可能出現所謂的“滑坡效應”,引發(fā)全球危機。比如工人本可以在工作中避免受傷,但是由于算法錯誤卻導致殘疾;還有人可能受智能選股軟件的誘導,把畢生的積蓄砸進股票市場,最終家破人亡??膳碌氖?,這些受害者可能會忽然發(fā)現,自己竟然得不到法律保護,甚至連財務追索權都沒有(靠機器人賺錢的想法的確有些愚蠢)。

這些AI安全問題,正是研究人員和專家需要考慮的,他們也必須要考慮各種非預期后果,如果說我們無法阻止超級AI接管世界,但至少,我們得明白它們會給我們造成哪些潛在影響。

VIA POPSCI

雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知

分享:
相關文章
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說