4
按:本文由新智元翻譯自《紐約時報》,原作者Benjamin H. Bratton。
人們對于人工智能這個熱點話題仍說法各異。
像史蒂芬·霍金、伊隆·馬斯克、比爾·蓋茨這樣的專家,最近越發(fā)看重它的潛力和威脅。在讀完尼克·博斯特倫《超級人工智能》一書后,馬斯克大聲質(zhì)問,人工智能是否是”我們現(xiàn)在最大的威脅”。
我們對于人工智能流行的說法被人類倫理所扭曲了。人們對于人工智能的分歧不僅僅體現(xiàn)在它的威脅上,對于強(qiáng)人工智能是否會出現(xiàn)也有不同的看法。一些人認(rèn)為具備人類相當(dāng)水平的“強(qiáng)人工智能”(hard A.I.)永遠(yuǎn)不可能存在,但也有人認(rèn)為這種趨勢將勢不可擋。但在很多情況下,這些爭論可能偏離了真正的含義:人工智能在存在和思想上,可能和人類自身形式有很大的不同。
簡而言之,這種觀點表明,一種成熟的人工智能不一定是仿人的智能,或者由我們支配。如果我們以錯誤的方式去尋找人工智能,它出現(xiàn)的形式可能就會是:難以識別、風(fēng)險擴(kuò)大并且延遲收益。
這不僅僅是對于未來的擔(dān)憂。人工智能早已走出實驗室,并且深入日常生活?!叭跞斯ぶ悄堋保⊿oft A.I.),比如蘋果的Siri和亞馬遜的推薦引擎,以及人工智能基礎(chǔ)設(shè)施,比如高頻算法交易,智能汽車和工業(yè)機(jī)器人已成為日常生活的一部分,與我們的工具使用、城市發(fā)展、經(jīng)濟(jì)建設(shè)和商品貿(mào)易息息相關(guān)。
不幸的是,人工智能的主流觀點,起碼在無數(shù)的電影、游戲和書籍中描述的,依然假定那些與人相似的特征(憤怒、嫉妒、困惑、貪婪、驕傲、欲望,更不用說冷漠疏遠(yuǎn))是人工智能最重要的部分。這種錯誤的人類中心主義也許和現(xiàn)在的人工智能研究相去甚遠(yuǎn),但這也側(cè)面反映了我們的文化如何看待自我和高級合成認(rèn)知(advanced syntheticcognition)。
在斯蒂文·斯皮爾伯格2001年的電影《A.I. Artificial Intelligence》中,那個小男孩機(jī)器人想要成為真正的男孩,雖然他只有一顆小金屬心靈,而天網(wǎng)在電影《Terminator》中則沉迷于人類毀滅。我們不假思索的假定,斯坦利·庫布里克和亞瑟·查理斯·克拉克1968年的電影《2001: A Space Odyssey》里的巨石Monoliths是在和人類主人公大衛(wèi)交流,而不是他宇宙飛船上的人工智能:HAL 9000。
我認(rèn)為我們應(yīng)該停止這樣的想法:真正的人工智能必須深切考慮到人類,尤其是以人作為它的關(guān)注點和動機(jī)。也許我們真正害怕的,并非是一臺殺死我們的大機(jī)器,而是它認(rèn)為我們無關(guān)緊要。這比被視作敵人更加糟糕。
除非我們假設(shè),類人智能代表了所有可能的智能形式(這當(dāng)然是自欺欺人),否則為什么要根據(jù)和我們的相似性來定義先進(jìn)的人工智能?畢竟“智能”非常難以定義,而人類智能又無法簡單地包含所有可能性。即便在實驗室它具有實用的價值,但從文化角度,它還是適得其反,是不道德甚至是危險的。
我們不需要如此狹隘和自戀的人工智能觀念,所以不能僅僅把我們自身的特性映射到機(jī)器的版本中。如果把這種狹隘的觀念作為人類和人工智能溝通的基礎(chǔ),這個前提就已經(jīng)是錯誤的了。更不用說,歷史上不同群體的“第一次接觸”,即使是在人類之間,也往往是不愉快的經(jīng)歷
從雷德利·斯科特的《銀翼殺手》到斯派克·瓊斯的《她》,這些無數(shù)的科幻電影在測試人工智能的能力的時候,都要看它是否能被“以人相待”。這種觀點從人工智能研究開始一直伴隨到現(xiàn)在。這最早可以回溯到1950 年,英國數(shù)學(xué)家阿蘭·圖靈發(fā)表了論文《計算機(jī)器與智能》,那時候他提出了“模仿游戲”測試,也就是我們今天說的“圖靈測試”。雖然版本有所不同,但它揭示了我們研究人工智能文化和道德的方法論定義了人工智能本身:無論是好的還是壞的。
最讓人熟悉的版本是:提問者向兩個隱藏的參賽者提問,一個是人,另一個是計算機(jī)。圖靈認(rèn)為,如果提問者不能區(qū)分兩者的身份,并且計算機(jī)能成功假扮成人,那么就成功通過測試。從實踐目的來說,計算機(jī)不就是“智能”的嗎?
計算機(jī)需要假裝成人以通過人類的測試,而圖靈需要隱藏同性戀傾向以通過“直男測試”,這真是有趣的巧合。
遺憾的是,更多的人僅僅“知道”圖靈測試,而沒有真正閱讀過。圖靈的文本是非凡、奇妙而令人驚訝的。圖靈說他的測試是一種流行客廳游戲的變種:有兩個藏在幕后的參賽者,一位女性(參賽者A)和一位男性(參賽者B),他們需要努力說服,讓第三個人認(rèn)為自己是一名女性,通過手寫回答問題的方式。為了獲勝,一個參賽者必須令人信服的扮演自己,而另一方需要假扮成另一種性別。圖靈用計算機(jī)取代了玩家A,在字面上你可以理解為,計算機(jī)不僅僅要扮演一個人,而且得扮演成女性才能通過測試。
在其他版本的測試中,參賽者B可以是男性,也可以是女性。游戲里可以一個人假裝、或者兩人假裝、抑或兩人都不假裝,也可以是完全不同的游戲。既然我們讓計算機(jī)參賽,我們可以讓它假扮成女性或男性,這個角色假扮成女性,讓詢問者分不清男女。也可以玩的更加復(fù)雜,計算機(jī)假扮成試圖假裝女人的男人,同時還有一個真的人也在這么做。甚至說,讓計算機(jī)假扮成為這樣的女性,她假扮成試圖假裝女人的男人。畢竟在現(xiàn)實生活中,這些情況都有可能發(fā)生。
莫騰·泰杜姆導(dǎo)演的《模仿游戲》獲得了2014年奧斯卡大獎。在那個同性戀被視作犯罪的年代,即便是身為數(shù)學(xué)家的圖靈也得假扮成“直男”。而當(dāng)他的性傾向暴露時,不得不接受可怕的“化學(xué)閹割”治療。最終,在巨大的身體和精神痛楚下,圖靈自殺了。這是歷史上荒誕的插曲,當(dāng)時他對擊敗希特勒軍隊的貢獻(xiàn)還是一個國家機(jī)密。直到最近,圖靈才得到了英女王的皇家豁免,然而類似法律下被懲處的其他成千上萬的英國男子卻未被豁免。
計算機(jī)被要求通過測試來證明智力,和圖靈被要求假扮成直男來通過測試,這里面有著諷刺的對應(yīng),既嘩眾取寵也極度不公平。
無論是以白人或黑人、男人或女人的身份通過測試,基本上都取決于他人的觀察和解釋。因為其他人都已經(jīng)習(xí)慣于傳統(tǒng)的暗示(種族,性,性別,物種等),所以無論誰想通過測試,都只有和觀察者進(jìn)行共謀。至于人工智能是否愿意這么做,或者僅僅被拖過來完成測試,那就是另一個問題了。無論如何,通過與否更多關(guān)乎觀眾,而非被測試者的表現(xiàn)。
我們最好這樣假定,在宇宙中思考是多樣化的行為,即便是外星人也會思考,人類并非是特殊的個案。相對于人類教育機(jī)器如何思考,人工智能真正的哲學(xué)問題是,機(jī)器如何教育人類在一個更完整和真實的維度里思考。
III.
過去我們總是根據(jù)模擬人類思維的能力來定義人工智能存在,在未來看來,這種想法其實只是一種奇怪的物種偏見。在這種想法下,早期人工智能研究者試圖在機(jī)器中重建人類思維,但這根本行不通。相反,現(xiàn)代的研究者認(rèn)為,如果機(jī)器能在特定領(lǐng)域里把事情做好,就可以被稱作“智能的”,而不是它能在多大程度反映出人類思想。Stuart Russell和PeterNorvig(現(xiàn)任谷歌研究院主任)在他們重要的著作《人工智能》中就指出了,對生物形態(tài)的簡單模仿并不足以應(yīng)用于復(fù)雜精巧的現(xiàn)代科技:飛機(jī)并不以鳥類的方式飛行,我們在測試飛機(jī)是否是“真正的”飛行器時,當(dāng)然也不會去看看鳥類是否會把飛機(jī)與同類混淆。既然如此,為什么人們對人工智能采用了這樣的判斷標(biāo)準(zhǔn)呢?現(xiàn)代務(wù)實的人工智能研究并不會把圖靈測試作為成功的標(biāo)準(zhǔn),然而在流行文化中,這種人類中心主義的測試卻在長期受到重視。人們對于人工智能的想象大多數(shù)還停留在迪士尼電影中會說話的動物這一層次上,而這其實不過是一種幼稚的口技而已。
有人會說:把模仿人類形態(tài)作為人工智能的先決條件不夠科學(xué),是一種“前哥白尼”時代的觀點。那么這種觀點真正的問題在哪里呢?如果在未來,我們?nèi)粘K姷娜斯ぶ悄芏季哂心撤N人性,情形會怎么樣呢?好的方面是我們會與機(jī)器智慧建立一種更為真誠而清醒的關(guān)系,而壞的方面是,如果我們對生命體抱有這樣的幻想,將會損失更多可能性。有些哲學(xué)家已經(jīng)思考賦予有感情的機(jī)器以倫理權(quán)利了,但我想要說的不是這個,事實上,我們在思考這些人工智能體的時候,應(yīng)該尋找更為真實的視角。
馬斯克、蓋茨和霍金關(guān)于人工智能威脅的言論引起了廣泛的關(guān)注。他們的觀點很重要,但是,恐怕大多數(shù)讀者都誤解了他們。如果我們像1942年阿西莫夫“機(jī)器人三大定律“一樣,寄希望于給機(jī)器人編程,禁止它們傷害人類,首先我們就要讓機(jī)器人能夠理解什么是“人類”,以及什么是“傷害”。機(jī)器人并不需要做什么惡毒的行為就可以傷害到人類,一個最簡單的例子就是:它們只要把人類正常含義的指令以一種機(jī)械而極端的方式執(zhí)行,就足以帶來一場災(zāi)難。人工智能真正的威脅不在于機(jī)械故障或者對于反人類道德的舉動,而是在于它們智力強(qiáng)大,卻對人類漠不關(guān)心。如果我們像以前那樣,依據(jù)它們與人類的相似性來定義人工智能,并假定它們?nèi)膶W⒂谌祟愂聞?wù),我們就更加面臨著這方面的風(fēng)險。
不管想象中的“強(qiáng)人工智能”是否真正會出現(xiàn),如果我們總是堅持一種我們已經(jīng)知道其錯誤的信念,我們將會錯失發(fā)現(xiàn)和理解人工智能的良機(jī)。在1950年的那篇文章中,圖靈提到了對他設(shè)想的人工智能的很多反駁意見,令人印象深刻的是,他把對人工智能的反對與當(dāng)年天主教會反對哥白尼天文學(xué)相類比。哥白尼的發(fā)現(xiàn)使人們放棄了自己處于宇宙中心,具有絕對優(yōu)越性的錯誤觀點,這種發(fā)現(xiàn)是不可估量的巨大成就。這使得人類更清醒地認(rèn)識世界,把世界實際的狀態(tài),而不是從我們這個角度能夠觀察到的狀態(tài),作為思想的基礎(chǔ)。圖靈把這些反駁意見作為“神學(xué)的反對意見”。另一方面,也會有人說,不管圖靈測試有多么悠久,把類人智能作為人工智能的先決條件,也同樣與“前哥白尼時代”的人類中心主義無異。先進(jìn)的、不像人類的人工智能的到來,可能會帶來一場新的覺醒,使我們對于我們自身、我們所處的環(huán)境、以及什么是真正的“智能”有更為清醒的認(rèn)識。這樣我們建立的世界模型就更加接近世界真實的樣子,我們對于未來也會更有信心,這總是一件好的事情。
最后,這種想法延續(xù)了過去人類與技術(shù)的關(guān)系,這種關(guān)系已經(jīng)把我們帶到了“第六次物種大滅絕”的邊緣。按理說,人類中心主義本身并不是來自走向瘋狂的技術(shù),而更多地是由于人文主義的遺產(chǎn),使得我們總是幻想世界是按我們?nèi)祟惖脑O(shè)想,依人類的需要而建立的。這些幻想常常能從現(xiàn)代的意見領(lǐng)袖口中聽到,他們向大家布道,勾勒了一個美好的世界,在那里機(jī)器是為人的需要和愿望而服務(wù)的。如果你真的這樣認(rèn)為,就上網(wǎng)查一下“殺豬機(jī)器人”(不要真的這樣做),然后我們再來談?wù)勔粋€機(jī)器完全服從于人的需要的世界是什么樣的。
有人或許在想,我們?nèi)祟惿鐣步?jīng)歷了從奴隸制度、神權(quán)制度到法制社會,所以即便到了2015 年,對機(jī)器來說又何嘗不可?這種情緒(更精確地說,是這種技術(shù)哲學(xué))本質(zhì)上就是帶來人類中心主義困境的原因,如果繼續(xù)堅持這種觀點,我們也很難順利走向人工智能。人類如果繼續(xù)堅持這種妄自尊大的習(xí)俗,未來將會付出過于高昂的代價。現(xiàn)在,到了我們改變的時候了。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。