15
本文作者: 大壯旅 | 2016-01-14 19:21 |
編者按:本文作者為Nancy Mendoza,近日她對AI(人工智能)專家Murray Shanahan教授進行了一次采訪,就全新的Leverhulme AI研究中心和AI的未來做了一番討論。Shanahan曾擔任電影《機械姬》的劇本寫作顧問。
怎么定義來AI呢?簡單來說,電腦要能在一定程度上擁有自己的思維。眼下,自動駕駛汽車就算是一種AI,而科幻小說中的像人類一樣的AI則暫時還只是個夢。
設立Leverhulme研究中心的初衷是為了探索AI發(fā)展中的機遇和挑戰(zhàn),搞清這一劃時代的技術到底會對人類造成什么影響。該研究中心由劍橋大學,帝國理工學院,牛津大學馬丁學院和加州大學伯克利分校共同出資建成,而Shanahan教授則是帝國理工學院在該研究中心的負責人。
研究中心的職責是什么?
AI對人類的影響分為短期和長期,該研究中心的職責就是要從不同的角度分析這些影響。計算機科學家,哲學家,社會科學家和其他專家會齊聚研究中心,共同探討AI引發(fā)的一系列技術,哲學和實際問題。
既然該研究中心事關AI的未來,對該技術有什么期許呢?
有了孩子后,AI到底會走向何方就成了一個非?,F(xiàn)實的問題。畢竟該技術未來會在孩子們這一代扮演非常重要的角色,作為家長,我當然希望該技術能起到積極的作用。
說起AI的前景我就會興奮得像個小孩子,甚至會找回我小時候看阿西莫夫科幻小說和2001太空漫游時的那份心情。不過,在為這一技術激動的同時,我也會有些許擔心,因為它會在社會和哲學層面對我們的世界產生深遠影響。
您在研究中心扮演什么樣的角色?
在過去的十年中,我一直在對大腦的工作方式進行研究。此外,我還編寫了許多代碼來模擬人腦神經網絡的運作方式。最近,我還對AI的社會和哲學影響進行了深度思考。而Leverhulme中心讓我能更好的分配這兩項工作的時間,提高工作效率。
因為我參與了AI開發(fā)核心的建設,所以自然而然的我就成了項目中技術和社會哲學之間溝通的橋梁。
說到長期影響,您認為該研究中心能及時阻止科幻小說中出現(xiàn)的機器人造反等情況嗎?
有可能,不過直接將科幻小說中出現(xiàn)的可怕場景當成AI的長遠影響有些不合適??苹眯≌f中的AI有些過于人格化了,所以看起來非常邪惡。這非常有利于編劇發(fā)揮,但卻會對我們正確認識科技產生負面影響。
即使AI未來變得相當智能,它也不必長出一副人類的樣子。相反,人類可以對它們下指令,不過由于它們相當智能化,所以在執(zhí)行任務過程中很可能會加入自己的想法,從而引起一些副作用。
來自牛津大學的Nick Bostrom也是研究中心的一員。他創(chuàng)造了一種名為“如何更好的制作回形針”的思維實驗,實驗中AI機器人需要找到制作回形針的最佳方案。其實進行這種實驗比看科幻小說有意義的多。
所以,您不再迷戀科幻小說了嗎?
其實我還是很喜歡看科幻小說,最近我就做了科幻電影《機械姬》的劇本寫作顧問。該電影的編劇發(fā)郵件告訴我想讓我?guī)退寻殃P,我覺得他劇本寫得很不錯,于是就有了進一步的交流。他想知道劇本中關于AI的部分是否符合科學事實,想知道AI到底應該是什么樣的。最后電影中我的書居然成了隱藏的線索,它變成了主角編寫的Python代碼,如果你運行這一代碼,就會出現(xiàn)那本書的ISBN編號。
我認為科幻小說在社會批判和哲學領域都有其重要的作用,人們會通過它對科技發(fā)展有一個更為深刻的思考。
《機械姬》的故事中有著古希臘神話普羅米修斯的影子,這也是20和21世界科幻小說中最常用的隱喻——科技發(fā)展后便會反噬人類,就像科學怪人那樣。藝術作品對該主題的探索也提醒我們思考AI的未來,不過我們在方式的過程中一定要分清藝術作品的哲學和娛樂價值。
AI在短期內會有什么影響呢?
說到短期影響,我們可以拿近幾年的例子作為參考。最好的例子就是自動駕駛汽車,該技術已經相當成熟,據正式量產也不遠了。即使在短期內完美的自動駕駛還不現(xiàn)實,但未來幾年還是會出現(xiàn)越來越多的自動駕駛車輛。
除了工程方面的挑戰(zhàn),自動駕駛汽車還會在就業(yè)市場掀起巨大的波瀾,許多司機很可能會因此下崗。此外,自動駕駛還會造成許多法律糾紛:當事故一方是自動駕駛車輛時,到底誰該負責呢?汽車總不能為自己的行為負責吧?
另一方面,自動駕駛汽車也會推動社會進步,惡性事故的大大減少就是其主要表現(xiàn)。人類的注意力很難長期集中,極易引起交通事故,而自動駕駛汽車中的電腦可不會感覺疲倦。
自動駕駛汽車還會為保護環(huán)境做出巨大貢獻。它完全由電腦控制,所以不會有人類的不良駕駛習慣,因而也會更省油,污染更小。研究中心的任務就是對生活中活生生的例子進行研究和反思。
帝國理工學院會解決那些短期問題呢?
理工學院在研究中心的主要任務是將智能機器的決策過程透明化。在對AI的研究中,理解機器的決策過程是非常重要的一環(huán),畢竟真正的主宰還是人類,我們可不想對機器人的判斷深信不疑,因為即使是智能機器也會出錯。
舉例來說,理論上來說圖像識別軟件可以精確識別出圖片庫中的貓科動物,它們甚至可以分辨出美洲豹,雪豹和獵豹之間的不同,但如果面對一個裝了美洲豹沙發(fā)罩的沙發(fā),這個軟件很有可能就會出錯。
為了保證整個決策過程中人類的參與和監(jiān)督權,科學家們應該對其底層技術進行修改,以便人們能知道智能機器到底想干什么?;蛘呶覀兛梢詫ζ溥M行逆向研發(fā),這樣就可以更好的了解智能機器的決策過程并及時加以干預。
在解決長遠問題中帝國理工學院會扮演什么角色呢?
假設我們造出了非常強大的AI,它可以徹底解放我們的雙手,讓我們免于每日辛勤的勞動,到時我們的世界會變成什么樣?后工作時代一個有意義的生活又是什么樣呢?
此外,帝國理工學院還非常注重對哲學上所謂“思維空間”(space of possible minds)的研究,畢竟這地球上擁有思維能力的生物不止人類一種。假設AI擁有了人類的認知能力,是否就意味著思維空間得到了拓展呢?
在這一問題的研究上,我們一直在和劍橋大學的Nicky Clayton和Lucy Cheke教授進行合作。他們都對比較認知非常著迷,此前一直在對高智商動物如鴉科鳥類進行研究。
我們真的能創(chuàng)造出類人化的AI嗎?
現(xiàn)在當然不太可能,畢竟眼下最復雜的AI都不一定比你的面包機強,因為它感知不到周邊的世界。掃地機器人在這方面做得還不錯,它能在行走過程中躲避障礙物,不過這一過程跟我們所說的獨立思考也沒任何關系,至于意識,它就更不可能有了。
現(xiàn)下我們不敢,也沒有能力將人類的智能整合進AI中,不過在研究中我們可不會考慮這些因素。AI到底會走向何處,我們拭目以待。
via imperial
雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知。