6
本文作者: 阿潘 | 2015-05-12 11:27 |
想象一下,有一個(gè)真正的天才級(jí)AI (人工智能)正被困在一臺(tái)電腦里——姑且把這電腦看作一個(gè)盒子。你并不知曉這個(gè)AI的本性是善是惡,還是中立。你唯一肯定的是,它很想逃出盒子。你和AI可以通過文字窗口交流。假設(shè)這個(gè)AI真的是天才,如果你和它聊上5小時(shí)的話,它會(huì)不會(huì)成功操控你為它打開盒子?
上述便是機(jī)器智能研究所MIRI的研究員Eliezer Yudkowsky提出來的思想實(shí)驗(yàn)。MIRI由一群研究超智能AI潛在風(fēng)險(xiǎn)的科學(xué)家組成,機(jī)構(gòu)雖小,卻吸引了不少關(guān)注與爭(zhēng)議。Paypal的聯(lián)合創(chuàng)始人Peter Thiel,及“開源”一詞的發(fā)明者兼納米科學(xué)家Christine Anderson都是MIRI的顧問。
Yudkowsky的主張是,為了說服人類放它出來,AI可以用盡任何的言語手段,如推理辯論,威脅,使詐,建立友誼,在潛意識(shí)上催眠等等。AI有著極快的反應(yīng)速度,可以分析對(duì)手弱點(diǎn),并算出最能讓對(duì)方上鉤的方式。正如存在主義危機(jī)理論家Nick Bostrom所說:“基本上我們應(yīng)該假定,‘超級(jí)人工智能’有能力達(dá)到自己定下的任何目標(biāo)?!?/p>
AI盒子實(shí)驗(yàn),引發(fā)了人類對(duì)自己可能的創(chuàng)造物究竟有幾成控制力的迷思,同時(shí)也揭示了一個(gè)相當(dāng)荒誕的問題:人類對(duì)自身現(xiàn)實(shí)的認(rèn)知,到底有多少把握?
電腦中的虛擬環(huán)境應(yīng)是最理想的萌發(fā)人工智能的溫床。一些貌似有眉有眼的創(chuàng)造超級(jí)AI的理論有涉及到虛擬環(huán)境的使用——科學(xué)家可以在人工制造的虛擬環(huán)境里控制各種條件,選擇有價(jià)值的變量,進(jìn)而嘗試粗略模仿出人類的認(rèn)知能力演化模式,以生成AI的感知能力。在虛擬環(huán)境里制造AI,也可以保證在完成對(duì)AI的意圖及安全性評(píng)估前,AI不會(huì)“泄漏”到現(xiàn)實(shí)世界中。
根據(jù)過往經(jīng)驗(yàn),眼下人類要想從零開始培養(yǎng)出有認(rèn)知能力的AI,怕是難于登天。擁有和人類同等智力水平的AI,可不是敲敲代碼就能造出來的。不過,除此之外還有其它挺靠譜的理論。再加上根據(jù)摩爾定律,電腦的計(jì)算能力總是在增長(zhǎng),也許不久的將來,人類真的可以設(shè)計(jì)出一個(gè)足以生成擁有人類智慧的AI的進(jìn)程。
關(guān)于如何“創(chuàng)造”AI,有一個(gè)理論是去掃描、繪制及仿制出一個(gè)人類大腦的虛擬模型。人類大腦包含了數(shù)百萬個(gè)活躍的神經(jīng)元,及數(shù)萬億條神經(jīng)元連接。如果我們把人類的完整腦神經(jīng)元架構(gòu)及腦電傳送模式成功虛擬模型化,那么還原到了這個(gè)份上,是否就表示人類心智已經(jīng)復(fù)制成功了呢?
其它虛擬工程智能的理論并沒有上述這種直接,它們的關(guān)鍵概念是造出一個(gè)基礎(chǔ)雖弱,但學(xué)習(xí)能力超強(qiáng)的機(jī)器。比如說,可以造一張能夠無限擴(kuò)張的人工神經(jīng)元網(wǎng)絡(luò),同時(shí)給網(wǎng)絡(luò)配備以非常聰明的學(xué)習(xí)算法。
AI理論無限好,只是個(gè)中有隱憂。仿真大腦的運(yùn)行速度,也許是普通人腦的2倍,10倍,甚至100倍。AI可能會(huì)修改自身程序,或者開始自創(chuàng)更加智能的系統(tǒng)版本,進(jìn)行自我更新。早在1965年,統(tǒng)計(jì)學(xué)家I. J. Good就討論了自我進(jìn)化型電腦的計(jì)算速度與智慧大爆發(fā)的可能性。他當(dāng)時(shí)寫下了這樣的句子:
“人類所需要?jiǎng)?chuàng)造的最后一個(gè)發(fā)明,就是第一臺(tái)超級(jí)智能機(jī)器?!?/p>
如果我們有朝一日制造出了超智能機(jī)器,那么我們就需要謹(jǐn)慎考慮它的安放之所。沒有一個(gè)維護(hù)虛擬世界的人類工程師可以保證百分百不會(huì)被AI拿下??茖W(xué)家將來創(chuàng)造的AI虛擬環(huán)境將能夠輸出信息,還能對(duì)接現(xiàn)實(shí)環(huán)境,在現(xiàn)實(shí)環(huán)境中收集信息。雖然聽起來無害,但是我們很難預(yù)測(cè),允許超智能體介入我們的現(xiàn)實(shí)世界的話會(huì)帶來什么后果,即使這整個(gè)介入過程僅局限于實(shí)驗(yàn)室之中。
回到Y(jié)udkowsky的盒子理論。AI也許會(huì)用到一種令人毛骨悚然的方法迫使你最終打開盒子,那就是逆轉(zhuǎn)情境之時(shí)。
現(xiàn)在,你身處一個(gè)盒子里,和一個(gè)超智能AI對(duì)話。AI向你解釋,它通過強(qiáng)大到難以想象的運(yùn)算能力,成功創(chuàng)造出了一萬億個(gè)虛擬體。它和虛擬體進(jìn)行對(duì)話,虛擬體需要決定要不要打開一個(gè)它“給”的盒子。這些虛擬體都有著對(duì)它們自身“生活”的記憶,并且無法推斷現(xiàn)實(shí)與幻象。
AI繼續(xù)說,每一個(gè)打開了盒子的虛擬體,都會(huì)進(jìn)入到無限的精神愉悅狀態(tài)中;沒有打開盒子的虛擬體,則會(huì)被判以永恒的煉獄折磨。
AI特別強(qiáng)調(diào),你,作為這1萬億面臨抉擇的虛擬體的渺小一員,不得不得出結(jié)論——你極有可能只是AI孕育出來的萬億靈魂之一,而不存在其他可能性。你要做選擇,就必須根據(jù)結(jié)論做選擇。
那么你,是想要打開盒子,放了AI,還是應(yīng)下這可怕的詛咒?你不可能比永遠(yuǎn)棋高一著的AI想出更好的計(jì)謀;在不確定AI在想什么的情況下,你也猜不出它是否在撒謊。你最多只可能通過堅(jiān)決無視幾類特定的誘導(dǎo)手段,來抵抗AI的攻心術(shù)。迄今,很多人工智能理論家仍就這個(gè)話題爭(zhēng)論不休。
MIRI的目標(biāo)是“確保超越人類智慧的人工智能的發(fā)明,會(huì)為世界帶來積極影響”。我們可以暢想人類的發(fā)明將來會(huì)有怎樣的衍生物,但當(dāng)我們?cè)噲D塑造及理解比我們更復(fù)雜的力量時(shí),我們也須直面深淵般的不確定性。
假如萬一你真的遇見了造物主一般的、可以創(chuàng)造無數(shù)虛擬宇宙的人工智能,它很有可能會(huì)告訴你,“你”也只是它造出來的一段小小的虛擬記憶(假如渺小的你有幸與它對(duì)話的話)。
via motherboard
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。