3
本文作者: 新智元 | 2015-10-02 08:30 |
【編者按】本文原作者為紐約時(shí)報(bào)的Benjamin H. Bratton,由新智元曾輝、Janet Zhao、牟文龍翻譯,賀慢慢校對(duì)完成。
人們對(duì)于人工智能這個(gè)熱點(diǎn)話題仍說(shuō)法各異。
像史蒂芬·霍金、伊隆·馬斯克、比爾·蓋茨這樣的專家,最近越發(fā)看重它的潛力和威脅。在讀完尼克·博斯特倫《超級(jí)人工智能》一書(shū)后,馬斯克大聲質(zhì)問(wèn),人工智能是否是”我們現(xiàn)在最大的威脅”。
我們對(duì)于人工智能流行的說(shuō)法被人類(lèi)倫理所扭曲了。人們對(duì)于人工智能的分歧不僅僅體現(xiàn)在它的威脅上,對(duì)于強(qiáng)人工智能是否會(huì)出現(xiàn)也有不同的看法。一些人認(rèn)為具備人類(lèi)相當(dāng)水平的“強(qiáng)人工智能”(hard A.I.)永遠(yuǎn)不可能存在,但也有人認(rèn)為這種趨勢(shì)將勢(shì)不可擋。但在很多情況下,這些爭(zhēng)論可能偏離了真正的含義:人工智能在存在和思想上,可能和人類(lèi)自身形式有很大的不同。
簡(jiǎn)而言之,這種觀點(diǎn)表明,一種成熟的人工智能不一定是仿人的智能,或者由我們支配。如果我們以錯(cuò)誤的方式去尋找人工智能,它出現(xiàn)的形式可能就會(huì)是:難以識(shí)別、風(fēng)險(xiǎn)擴(kuò)大并且延遲收益。
這不僅僅是對(duì)于未來(lái)的擔(dān)憂。人工智能早已走出實(shí)驗(yàn)室,并且深入日常生活。“弱人工智能”(Soft A.I.),比如蘋(píng)果的Siri和亞馬遜的推薦引擎,以及人工智能基礎(chǔ)設(shè)施,比如高頻算法交易,智能汽車(chē)和工業(yè)機(jī)器人已成為日常生活的一部分,與我們的工具使用、城市發(fā)展、經(jīng)濟(jì)建設(shè)和商品貿(mào)易息息相關(guān)。
不幸的是,人工智能的主流觀點(diǎn),起碼在無(wú)數(shù)的電影、游戲和書(shū)籍中描述的,依然假定那些與人相似的特征(憤怒、嫉妒、困惑、貪婪、驕傲、欲望,更不用說(shuō)冷漠疏遠(yuǎn))是人工智能最重要的部分。這種錯(cuò)誤的人類(lèi)中心主義也許和現(xiàn)在的人工智能研究相去甚遠(yuǎn),但這也側(cè)面反映了我們的文化如何看待自我和高級(jí)合成認(rèn)知(advanced syntheticcognition)。
在斯蒂文·斯皮爾伯格2001年的電影《A.I. Artificial Intelligence》中,那個(gè)小男孩機(jī)器人想要成為真正的男孩,雖然他只有一顆小金屬心靈,而天網(wǎng)在電影《Terminator》中則沉迷于人類(lèi)毀滅。我們不假思索的假定,斯坦利·庫(kù)布里克和亞瑟·查理斯·克拉克1968年的電影《2001: A Space Odyssey》里的巨石Monoliths是在和人類(lèi)主人公大衛(wèi)交流,而不是他宇宙飛船上的人工智能:HAL 9000。
我認(rèn)為我們應(yīng)該停止這樣的想法:真正的人工智能必須深切考慮到人類(lèi),尤其是以人作為它的關(guān)注點(diǎn)和動(dòng)機(jī)。也許我們真正害怕的,并非是一臺(tái)殺死我們的大機(jī)器,而是它認(rèn)為我們無(wú)關(guān)緊要。這比被視作敵人更加糟糕。
除非我們假設(shè),類(lèi)人智能代表了所有可能的智能形式(這當(dāng)然是自欺欺人),否則為什么要根據(jù)和我們的相似性來(lái)定義先進(jìn)的人工智能?畢竟“智能”非常難以定義,而人類(lèi)智能又無(wú)法簡(jiǎn)單地包含所有可能性。即便在實(shí)驗(yàn)室它具有實(shí)用的價(jià)值,但從文化角度,它還是適得其反,是不道德甚至是危險(xiǎn)的。
我們不需要如此狹隘和自戀的人工智能觀念,所以不能僅僅把我們自身的特性映射到機(jī)器的版本中。如果把這種狹隘的觀念作為人類(lèi)和人工智能溝通的基礎(chǔ),這個(gè)前提就已經(jīng)是錯(cuò)誤的了。更不用說(shuō),歷史上不同群體的“第一次接觸”,即使是在人類(lèi)之間,也往往是不愉快的經(jīng)歷。
從雷德利·斯科特的《銀翼殺手》到斯派克·瓊斯的《她》,這些無(wú)數(shù)的科幻電影在測(cè)試人工智能的能力的時(shí)候,都要看它是否能被“以人相待”。這種觀點(diǎn)從人工智能研究開(kāi)始一直伴隨到現(xiàn)在。這最早可以回溯到1950 年,英國(guó)數(shù)學(xué)家阿蘭·圖靈發(fā)表了論文《計(jì)算機(jī)器與智能》,那時(shí)候他提出了“模仿游戲”測(cè)試,也就是我們今天說(shuō)的“圖靈測(cè)試”。雖然版本有所不同,但它揭示了我們研究人工智能文化和道德的方法論定義了人工智能本身:無(wú)論是好的還是壞的。
最讓人熟悉的版本是:提問(wèn)者向兩個(gè)隱藏的參賽者提問(wèn),一個(gè)是人,另一個(gè)是計(jì)算機(jī)。圖靈認(rèn)為,如果提問(wèn)者不能區(qū)分兩者的身份,并且計(jì)算機(jī)能成功假扮成人,那么就成功通過(guò)測(cè)試。從實(shí)踐目的來(lái)說(shuō),計(jì)算機(jī)不就是“智能”的嗎?
計(jì)算機(jī)需要假裝成人以通過(guò)人類(lèi)的測(cè)試,而圖靈需要隱藏同性戀傾向以通過(guò)“直男測(cè)試”,這真是有趣的巧合。
遺憾的是,更多的人僅僅“知道”圖靈測(cè)試,而沒(méi)有真正閱讀過(guò)。圖靈的文本是非凡、奇妙而令人驚訝的。圖靈說(shuō)他的測(cè)試是一種流行客廳游戲的變種:有兩個(gè)藏在幕后的參賽者,一位女性(參賽者A)和一位男性(參賽者B),他們需要努力說(shuō)服,讓第三個(gè)人認(rèn)為自己是一名女性,通過(guò)手寫(xiě)回答問(wèn)題的方式。為了獲勝,一個(gè)參賽者必須令人信服的扮演自己,而另一方需要假扮成另一種性別。圖靈用計(jì)算機(jī)取代了玩家A,在字面上你可以理解為,計(jì)算機(jī)不僅僅要扮演一個(gè)人,而且得扮演成女性才能通過(guò)測(cè)試。
在其他版本的測(cè)試中,參賽者B可以是男性,也可以是女性。游戲里可以一個(gè)人假裝、或者兩人假裝、抑或兩人都不假裝,也可以是完全不同的游戲。既然我們讓計(jì)算機(jī)參賽,我們可以讓它假扮成女性或男性,這個(gè)角色假扮成女性,讓詢問(wèn)者分不清男女。也可以玩的更加復(fù)雜,計(jì)算機(jī)假扮成試圖假裝女人的男人,同時(shí)還有一個(gè)真的人也在這么做。甚至說(shuō),讓計(jì)算機(jī)假扮成為這樣的女性,她假扮成試圖假裝女人的男人。畢竟在現(xiàn)實(shí)生活中,這些情況都有可能發(fā)生。
莫騰·泰杜姆導(dǎo)演的《模仿游戲》獲得了2014年奧斯卡大獎(jiǎng)。在那個(gè)同性戀被視作犯罪的年代,即便是身為數(shù)學(xué)家的圖靈也得假扮成“直男”。而當(dāng)他的性傾向暴露時(shí),不得不接受可怕的“化學(xué)閹割”治療。最終,在巨大的身體和精神痛楚下,圖靈自殺了。這是歷史上荒誕的插曲,當(dāng)時(shí)他對(duì)擊敗希特勒軍隊(duì)的貢獻(xiàn)還是一個(gè)國(guó)家機(jī)密。直到最近,圖靈才得到了英女王的皇家豁免,然而類(lèi)似法律下被懲處的其他成千上萬(wàn)的英國(guó)男子卻未被豁免。
計(jì)算機(jī)被要求通過(guò)測(cè)試來(lái)證明智力,和圖靈被要求假扮成直男來(lái)通過(guò)測(cè)試,這里面有著諷刺的對(duì)應(yīng),既嘩眾取寵也極度不公平。
無(wú)論是以白人或黑人、男人或女人的身份通過(guò)測(cè)試,基本上都取決于他人的觀察和解釋。因?yàn)槠渌硕家呀?jīng)習(xí)慣于傳統(tǒng)的暗示(種族,性,性別,物種等),所以無(wú)論誰(shuí)想通過(guò)測(cè)試,都只有和觀察者進(jìn)行共謀。至于人工智能是否愿意這么做,或者僅僅被拖過(guò)來(lái)完成測(cè)試,那就是另一個(gè)問(wèn)題了。無(wú)論如何,通過(guò)與否更多關(guān)乎觀眾,而非被測(cè)試者的表現(xiàn)。
我們最好這樣假定,在宇宙中思考是多樣化的行為,即便是外星人也會(huì)思考,人類(lèi)并非是特殊的個(gè)案。相對(duì)于人類(lèi)教育機(jī)器如何思考,人工智能真正的哲學(xué)問(wèn)題是,機(jī)器如何教育人類(lèi)在一個(gè)更完整和真實(shí)的維度里思考。
過(guò)去我們總是根據(jù)模擬人類(lèi)思維的能力來(lái)定義人工智能存在,在未來(lái)看來(lái),這種想法其實(shí)只是一種奇怪的物種偏見(jiàn)。在這種想法下,早期人工智能研究者試圖在機(jī)器中重建人類(lèi)思維,但這根本行不通。相反,現(xiàn)代的研究者認(rèn)為,如果機(jī)器能在特定領(lǐng)域里把事情做好,就可以被稱作“智能的”,而不是它能在多大程度反映出人類(lèi)思想。Stuart Russell和PeterNorvig(現(xiàn)任谷歌研究院主任)在他們重要的著作《人工智能》中就指出了,對(duì)生物形態(tài)的簡(jiǎn)單模仿并不足以應(yīng)用于復(fù)雜精巧的現(xiàn)代科技:飛機(jī)并不以鳥(niǎo)類(lèi)的方式飛行,我們?cè)跍y(cè)試飛機(jī)是否是“真正的”飛行器時(shí),當(dāng)然也不會(huì)去看看鳥(niǎo)類(lèi)是否會(huì)把飛機(jī)與同類(lèi)混淆。既然如此,為什么人們對(duì)人工智能采用了這樣的判斷標(biāo)準(zhǔn)呢?現(xiàn)代務(wù)實(shí)的人工智能研究并不會(huì)把圖靈測(cè)試作為成功的標(biāo)準(zhǔn),然而在流行文化中,這種人類(lèi)中心主義的測(cè)試卻在長(zhǎng)期受到重視。人們對(duì)于人工智能的想象大多數(shù)還停留在迪士尼電影中會(huì)說(shuō)話的動(dòng)物這一層次上,而這其實(shí)不過(guò)是一種幼稚的口技而已。
有人會(huì)說(shuō):把模仿人類(lèi)形態(tài)作為人工智能的先決條件不夠科學(xué),是一種“前哥白尼”時(shí)代的觀點(diǎn)。那么這種觀點(diǎn)真正的問(wèn)題在哪里呢?如果在未來(lái),我們?nèi)粘K?jiàn)的人工智能都具有某種人性,情形會(huì)怎么樣呢?好的方面是我們會(huì)與機(jī)器智慧建立一種更為真誠(chéng)而清醒的關(guān)系,而壞的方面是,如果我們對(duì)生命體抱有這樣的幻想,將會(huì)損失更多可能性。有些哲學(xué)家已經(jīng)思考賦予有感情的機(jī)器以倫理權(quán)利了,但我想要說(shuō)的不是這個(gè),事實(shí)上,我們?cè)谒伎歼@些人工智能體的時(shí)候,應(yīng)該尋找更為真實(shí)的視角。
馬斯克、蓋茨和霍金關(guān)于人工智能威脅的言論引起了廣泛的關(guān)注。他們的觀點(diǎn)很重要,但是,恐怕大多數(shù)讀者都誤解了他們。如果我們像1942年阿西莫夫“機(jī)器人三大定律“一樣,寄希望于給機(jī)器人編程,禁止它們傷害人類(lèi),首先我們就要讓機(jī)器人能夠理解什么是“人類(lèi)”,以及什么是“傷害”。機(jī)器人并不需要做什么惡毒的行為就可以傷害到人類(lèi),一個(gè)最簡(jiǎn)單的例子就是:它們只要把人類(lèi)正常含義的指令以一種機(jī)械而極端的方式執(zhí)行,就足以帶來(lái)一場(chǎng)災(zāi)難。人工智能真正的威脅不在于機(jī)械故障或者對(duì)于反人類(lèi)道德的舉動(dòng),而是在于它們智力強(qiáng)大,卻對(duì)人類(lèi)漠不關(guān)心。如果我們像以前那樣,依據(jù)它們與人類(lèi)的相似性來(lái)定義人工智能,并假定它們?nèi)膶W⒂谌祟?lèi)事務(wù),我們就更加面臨著這方面的風(fēng)險(xiǎn)。
不管想象中的“強(qiáng)人工智能”是否真正會(huì)出現(xiàn),如果我們總是堅(jiān)持一種我們已經(jīng)知道其錯(cuò)誤的信念,我們將會(huì)錯(cuò)失發(fā)現(xiàn)和理解人工智能的良機(jī)。在1950年的那篇文章中,圖靈提到了對(duì)他設(shè)想的人工智能的很多反駁意見(jiàn),令人印象深刻的是,他把對(duì)人工智能的反對(duì)與當(dāng)年天主教會(huì)反對(duì)哥白尼天文學(xué)相類(lèi)比。哥白尼的發(fā)現(xiàn)使人們放棄了自己處于宇宙中心,具有絕對(duì)優(yōu)越性的錯(cuò)誤觀點(diǎn),這種發(fā)現(xiàn)是不可估量的巨大成就。這使得人類(lèi)更清醒地認(rèn)識(shí)世界,把世界實(shí)際的狀態(tài),而不是從我們這個(gè)角度能夠觀察到的狀態(tài),作為思想的基礎(chǔ)。圖靈把這些反駁意見(jiàn)作為“神學(xué)的反對(duì)意見(jiàn)”。另一方面,也會(huì)有人說(shuō),不管圖靈測(cè)試有多么悠久,把類(lèi)人智能作為人工智能的先決條件,也同樣與“前哥白尼時(shí)代”的人類(lèi)中心主義無(wú)異。先進(jìn)的、不像人類(lèi)的人工智能的到來(lái),可能會(huì)帶來(lái)一場(chǎng)新的覺(jué)醒,使我們對(duì)于我們自身、我們所處的環(huán)境、以及什么是真正的“智能”有更為清醒的認(rèn)識(shí)。這樣我們建立的世界模型就更加接近世界真實(shí)的樣子,我們對(duì)于未來(lái)也會(huì)更有信心,這總是一件好的事情。
最后,這種想法延續(xù)了過(guò)去人類(lèi)與技術(shù)的關(guān)系,這種關(guān)系已經(jīng)把我們帶到了“第六次物種大滅絕”的邊緣。按理說(shuō),人類(lèi)中心主義本身并不是來(lái)自走向瘋狂的技術(shù),而更多地是由于人文主義的遺產(chǎn),使得我們總是幻想世界是按我們?nèi)祟?lèi)的設(shè)想,依人類(lèi)的需要而建立的。這些幻想常常能從現(xiàn)代的意見(jiàn)領(lǐng)袖口中聽(tīng)到,他們向大家布道,勾勒了一個(gè)美好的世界,在那里機(jī)器是為人的需要和愿望而服務(wù)的。如果你真的這樣認(rèn)為,就上網(wǎng)查一下“殺豬機(jī)器人”(不要真的這樣做),然后我們?cè)賮?lái)談?wù)勔粋€(gè)機(jī)器完全服從于人的需要的世界是什么樣的。
有人或許在想,我們?nèi)祟?lèi)社會(huì)也經(jīng)歷了從奴隸制度、神權(quán)制度到法制社會(huì),所以即便到了2015 年,對(duì)機(jī)器來(lái)說(shuō)又何嘗不可?這種情緒(更精確地說(shuō),是這種技術(shù)哲學(xué))本質(zhì)上就是帶來(lái)人類(lèi)中心主義困境的原因,如果繼續(xù)堅(jiān)持這種觀點(diǎn),我們也很難順利走向人工智能。人類(lèi)如果繼續(xù)堅(jiān)持這種妄自尊大的習(xí)俗,未來(lái)將會(huì)付出過(guò)于高昂的代價(jià)?,F(xiàn)在,到了我們改變的時(shí)候了。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。