7
近年來,人工智能(AI)已然成為大家的主流話題,它不再只是科幻迷的菜,也不只是谷歌工程師的專屬,就算在晚會、咖啡店、甚至茶余飯后,你都可以聽到人們在談?wù)撊斯ぶ悄堋?/span>
智力的發(fā)展,無論是人工智能或是人類本身,最終都是走向認知領(lǐng)域的增長和知識的學(xué)習(xí)。而自人工智能的第一代構(gòu)想產(chǎn)生以來,行業(yè)對其的認知層面尚圍繞在如何去發(fā)展的問題。公眾里對這個領(lǐng)域的問題談?wù)撟疃嗟氖牵何覀兩踔吝€不能了解自己本身,又如何能夠創(chuàng)造出另一種高智商的意識?
這是個值得慎思的問題。人類的大腦重量盡管只有3磅,但它是人體中最難以捉摸的器官。在大腦內(nèi)部,有數(shù)十億個神經(jīng)元,100萬億種聯(lián)系——可以說,我們還需要相當長的時間才能研究清楚大腦這個器官。
普遍地,科學(xué)家們相信,人類意識是由大腦中眾多化學(xué)物質(zhì)編碼而成,它折射出的是反映了人類本身以及外界的認知實體。
但也有人認為,產(chǎn)生知覺的關(guān)鍵是對物質(zhì)世界的意識。法國哲學(xué)家和數(shù)學(xué)家迪卡兒曾第一個說出“我思故我在”的意識論證。但思維并不就是充分的意識定義,而更準確的說法應(yīng)該是:我相信我有意識,故我在。
不過,當我們在探索一個宏達的意識理論時,我們的認知也未必能時刻滿足方法論指導(dǎo)的需求。我們可以調(diào)教機器人,向其證明周圍的世界是真實的,但我們無法向其證明的是,這一切并不是關(guān)于“缸中大腦”的悖論。
艾倫腦科學(xué)研究所首席神經(jīng)學(xué)專家Christof Koch對意識有更獨特的見解。Koch表示,意識可以發(fā)生在任何復(fù)合的處理系統(tǒng)中,包括動物、蠕蟲,甚至是互聯(lián)網(wǎng)。
在回答意識是什么的時候,Koch說道:“威斯康辛大學(xué)教授Giulio Tononi有一個理論叫整合信息理論(IIT),其宣稱要提供一種精確的方法來測量意識,并用純數(shù)學(xué)方法來對這種現(xiàn)象加以描述。在IIT理論框架下,貓一類的低等哺乳動物擁有一定的意識感知,昆蟲也是,即便是微乎其微的意識。
這種看法似乎符合我們的直覺,但神經(jīng)系統(tǒng)是在何時產(chǎn)生意識的呢?就像開關(guān)一樣突然開啟了意識?而更有可能的情況是,意識來源于“經(jīng)驗”的逐步演變,從單細胞生物簡單的、原始的感覺逐步演化到人類復(fù)雜的、定性的意識。所以,我們要時刻警惕,不能以擬人化的偏見來思量意識。
因此,人類第一臺通過機器創(chuàng)造的超智能產(chǎn)品或許在思想和行為上和我們具有明顯的不同——甚至說它或許就不曾和我們有什么關(guān)聯(lián)。事實上,未來我們創(chuàng)造的每一種人工智能都可能在短時間超越我們,然后離去。目前的人工智能處于從弱人工智能到強人工智能進發(fā),通過自我改進來達成強人工智能的人工智能,只會把“人類水平的智能”當作一個里程碑,然后超越。人工智能只會在“人類水平”這個節(jié)點做短暫的停留,然后就會開始大踏步向超人類級別的智能走去。相比起人類的認知,人工智能的優(yōu)勢在于,它有著強大的計算機系統(tǒng)作為支撐。引用科學(xué)界的觀點就是,現(xiàn)在的弱人工智能好比如地球早期軟泥中的氨基酸——沒有動靜的物質(zhì),突然之間就組成了生命。
但不管發(fā)生了什么,和人類學(xué)上文化相對主義依然存在的道理一樣,我們也要時刻準備應(yīng)對意識相對主義的存在。
同樣,人工智能或許會學(xué)習(xí)和復(fù)制人類的行為——甚至有可能是完美地——但總會有不一樣的地方。如果只會模仿復(fù)制,那這和上發(fā)條的玩偶沒有區(qū)別。人類都希望自身擁有更加豐富的意識。同樣地,人工智能工程師也希望他們創(chuàng)造出的機器有更高層次的意識。
盡管如此,我們?nèi)耘f致力于用自身的價值和思維方式創(chuàng)造人工智能,包括向其灌輸我們的性格特征。如果一定要指出一個我們?nèi)祟悜?yīng)該具備,同時還應(yīng)該灌輸給人工智能的品格,這將是“同理心”。只有同理心,才能幫助人工智能塑造出這個世界需要的意識類型,同時人類也可以理解和接受。
但另一方面,如果創(chuàng)造了可移情的同理心,那么就必然會有喜歡或不喜歡的意識——甚至是對事物的愛或恨。這就成為了人工智能方面的難題。
為了能讓某種意識基于事物的價值做出判斷,喜或惡都是這個系統(tǒng)必不可少的一部分。想象一下,假如人工智能懂得愛——超級智能機器懂得厭惡,或是傷心、內(nèi)疚,就沒有人為此而擔(dān)心了嗎?這確實是引起了諸多爭議的——特別是當下已進入由機器控制自動化武器的無人機時代。然而,沒有編入同理心的人工智能,也就像是一個上了發(fā)條的玩偶。
紐約理工大學(xué)教授Kevin LaGrandeur最近發(fā)文表示:“如果一個機器真的能夠‘感到’不同程度的內(nèi)疚,那么我們會否面臨機器抑郁或是機器‘自殺’的問題呢?”如果我們開發(fā)出了這樣的強人工智能,我們將面臨“創(chuàng)造了痛苦”的道德倫理問題。
這是當前人工智能面臨的困境。一方面,如果沒有經(jīng)歷,沒有多元,人工智能的意識不會健全;而另一方面,像人類那樣懂得了認知的人工智能,其將和人類一樣受到困擾。
via TechCrunch
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。