0
本文作者: 彭賽瓊 | 2017-07-09 08:57 |
雷鋒網(wǎng)消息,7月7日,中國計算機學會(CCF)主辦,雷鋒網(wǎng)與香港中文大學(深圳)承辦的第二屆CCF-GAIR全球人工智能與機器人峰會在深圳如期開幕。今天的第三位講者是Subbarao Kambhampati教授,他現(xiàn)在是AAAI(美國人工智能學會)的主席,同時他也是亞利桑拿州立大學的教授,他主要的研究是在自動化的決策機制,特別是在人工感知的人工智能領(lǐng)域。
同時他也是一個非常知名的教授,他花了很多的時間,同時特別提到了關(guān)于人工智能對于人類感知以及社會的影響,同時他自己本人也是AAAI的成員,他也在很多的國際機構(gòu)任職。他在2016年的大會的項目,以及2016—2025的AAAI項目當中提供相關(guān)的咨詢服務(wù)。Subbarao為我們講述了人工智能的興起,人工智能與人類學習模式的不同,一些人工智能的挑戰(zhàn),關(guān)于人工智能倫理的一些思考,最后還介紹了他進行的研究。雷鋒網(wǎng)將其演講內(nèi)容進行了整理。
機器學習的過程與人類不一樣
人工智能在過去并不十分受重視,但是現(xiàn)在,越來越多的媒體關(guān)注人工智能。很多國家也希望AI能帶來變革。但機器的學習過程與人類是不一樣的。人類會觀察這個世界上的事物,然后開始有了情感的智能,然后他們有了社會的智能,另外他們還會有感知的智能和推理的智能。而機器的過程則相反。不一樣的原因是:計算機解決問題的方案跟人類解決問題的方案是不一樣的,是相反的,機器學會認知才學會感知。
現(xiàn)在的AI大熱
現(xiàn)在,我們可以發(fā)現(xiàn),AI技術(shù)成為了人們的談資。但是AI大熱背后也有一些副作用,這會遮蔽我們的眼睛。Subbarao講了一些典型例子,包括一些恐怖分子識別系統(tǒng)和犯罪識別系統(tǒng)等。
如何謹慎地使用人工智能
像犯罪分子行為預(yù)測這樣的系統(tǒng)是非常有爭議的,必須要有合理、公平、道德的理由。AI現(xiàn)在是強有力的技術(shù)。很多公司對其進行了商業(yè)化,所以我們需要促進審慎的、有倫理的AI的發(fā)展。同時,我們在人工智能領(lǐng)域還有很多挑戰(zhàn),例如,如何讓機器能理解語言背后的含義,如何讓人工智能對世界有完整的理解,如何讓人機交互不會有不良事件。
人工智能和人類應(yīng)該如何交互
Subbarao也告訴了我們在人工智能與人類交互方面,我們應(yīng)該關(guān)注的部分:
我們能看到人工智能的正面報道,也能看到負面的。負面報道,我們必須關(guān)注
有意識的人工智能,如何讓人和機器能有效協(xié)作
人類希望能夠有能夠感知的機器人與自己對話
他認為,人類會對周圍的環(huán)境、事物有情感上的反應(yīng)。這是我們的情感的智能和社會的智能。我們需要社會的智能和情感的智能來彌補機器所不具備的這兩部分的技能。
此外,Subbarao還向大家介紹自己的研究,其研究的主要目的主要是能夠?qū)θ祟惽楦凶龀鲎R別,并推測人類動作的意圖和期待。最后,他還向大家做了一個簡短的關(guān)于AAAI(美國人工智能學會)的介紹。
以下是雷鋒網(wǎng)整理的Subbarao演講速記:
我來自亞利桑那州立大學,我今天將和大家共同探討一下AI的崛起以及人工智能的發(fā)展,非常感謝主辦方邀請我來中國,這也是我第三次來到中國。
就像剛才大家提到的,我也是AAAI的主席,首先我向大家簡單介紹一下AAAI,AAAI主要是關(guān)注于人工智能的研發(fā)機構(gòu),它同時也是人工智能界最為久遠的一個科學研究機構(gòu),它是在1979年建立的,它現(xiàn)在擁有大量的成員機構(gòu),同時AAAI也舉辦了目前全頂尖的人工智能論壇和相關(guān)的活動。我特別要提到的是,中國已經(jīng)成為了AAAI非常重要的一員,有來自中國的很多的學者,特別是在中國加入之后,目前在我們整體的AAAI論文的提交數(shù)量,以及包括我們的科研提交量上,我們的文章的接受量已經(jīng)遠遠超過了美國,而在去年AAAI會議計劃在美國新奧爾良市舉辦,因為是春節(jié)期間,很多中國的開發(fā)者沒有參加。因此今年我們修改了時間,作為現(xiàn)任執(zhí)委委員的楊強教授在當中出了不少力。(雷鋒網(wǎng)注:此外,楊強教授還是CCF-GAIR 2017大會的程序主席,香港科技大學計算機與工程系主任,國際頂級學術(shù)會議KDD、IJCAI等大會主席。楊強教授是第一位華人AAAI Fellow,他的當選改變了AAAI過去僅限于歐美圈子的狀況。楊強教授一直致力于推動AAAI的國際化,包括為本次GAIR大會推薦了并幫助邀請Rao做演講,曾做客雷鋒網(wǎng)沙龍,解讀了AAAI的歷史變遷。)
AAAI人工智能年會現(xiàn)在已經(jīng)得到了來自中國人工智能學界和研究界的大力支持。參與我們?nèi)斯ぶ悄苣陼娜藬?shù)以及中國成員的人數(shù)是比較少的,盡管他們的論文提交量比較高,所以我也希望在未來能有越來越多的人參與人工智能年會,把我們的年會變得越來越國際化,讓我們傾聽來自中國的人工智能專家的聲音。同時我們也希望大家能夠注冊成為AAAI的會員。在中國的會員身份一年是交20美金的會費,學生是18美金,所以對各位來講,如果加入這個人工智能年會是一件很簡單的事情,花費也不高。
當大家加入到AAAI這個協(xié)會里邊,我們是一個人工智能的組織,你們會看到各種各樣、各個地方的人工智能的專家,你會看到一些印度的人工智能專家,他們也在中國,我也會互相的進行會員的介紹。
因為我擔任AAAI的主席,所以我簡單給各位介紹一下AAAI,最核心的信息就是歡迎大家成為AAAI的會員。
今天我主要要講的就是人工智能?,F(xiàn)在人工智能有一個非常有趣的話題,就是有意識的人工智能,有意識的人工智能除了它自己的特點之外,還有什么樣的挑戰(zhàn)呢?另外我還會再講一講有人工意識的人工智能,因為這個人工智能的細分方向在未來可能會得到學界的大量的關(guān)注,并且這個問題的研究也是充滿了挑戰(zhàn)。
人們現(xiàn)在一般都在講AI做不了什么,但是當我在馬里蘭大學讀書的時候,我讀到了一本書,但是我讀了這本書之后,我發(fā)現(xiàn)人工智能還有很多能做成的地方。所以后來我們看到了谷歌,每天我訂閱谷歌的信息,他們把關(guān)于人工智能的所有信息都發(fā)給我,可以說在每一天收到的所有的文章里面都有至少一篇是關(guān)于人工智能的,而現(xiàn)在我們看到越來越多的文章和新聞,以及媒體都在關(guān)注人工智能,而且這些文章越來越離譜,今天早上我收到一篇文章說人工智能是不是被炒得太熱了,大家能夠看到在人工智能的領(lǐng)域,現(xiàn)在有很多有趣的情況,也有很多的公司正在使用著AI的技術(shù)來從事某種業(yè)務(wù),比如進行股東大會,在2018年可能越來越多的人還會再講到AI,而在之前沒有人這樣講,在2017年的時候我們已經(jīng)開始聽到或者看到有股東大會在使用AI技術(shù)。當然,各國的政府也正在關(guān)注AI,在美國奧巴馬執(zhí)政期間,美國政府有一個面向未來的計劃,這個計劃也主要是關(guān)注人工智能,奧巴馬說,他希望整個美國都能夠被AI技術(shù)變革,當然我們也看到同樣的國家執(zhí)政者,在中國也是一樣的,希望大力去發(fā)展AI技術(shù),變革中國的生產(chǎn)力。
當然,AI熱帶來的一個信息是什么呢?就是像我這樣的科學怪人能夠有機會上鏡,在電視上大講AI技術(shù),在之前像我們這些做研究的學界的人士是沒有機會到電視上的,現(xiàn)在我們被邀請到電視上講一講人工智能,講一講機器人。
今天我想講什么呢?就是考慮到我剛剛講的這些大的背景,在座的各位觀眾可能有的是研究AI的專門,有的是初學者,我給大家簡單地做了一個梳理,來幫助大家了解為什么現(xiàn)在AI變得這么熱。我們先想一想人的智能,我們看看寶寶,人類的寶寶在出生的時候,他們開始有一些特征和行為,在早期的時候,孩子會有感知和模仿的能力,他們會觀察世界,然后他們會去模仿我們的行為。這是我妻子的學生做的一個圖,他用這個圖來看他的孩子在吃飯的時候做一些簡單的行為。另外,在孩子成長的過程中,他們會逐漸看這個世界上的事物,然后他們開始有了情感的智力,然后他們有了社會的智能,另外他們還會有感知的智能和推理的智能,比如說大家去上學,在上學的時候就培養(yǎng)我們自己的感知能力和推理能力。當然,在大學、中學和小學,我們都要進行各種各樣的考試來培養(yǎng)和鍛煉我們的感知能力,這就是人類如何去發(fā)展自己的智能的。
我們再看一下AI,在90年代的時候,我們有一個專家系統(tǒng),這個專家系統(tǒng)是一種基于規(guī)則的系統(tǒng),當時許多企業(yè)都開始采用這種基于規(guī)則的系統(tǒng),當時所有主流的公司都會用這種規(guī)則系統(tǒng),在90年代的時候有深藍計算機,它和俄羅斯的國際象棋手進行了比拼,并且獲勝,所以那時候計算機開始有了推理的技能,到2000年的時候我們看到有深藍的升級版本。深藍能夠在一個蛋糕和一個棋子中間進行感知和選擇。在那個時候深藍計算機本身還沒有感知的能力,而在2000年之后,我們會看到現(xiàn)在最新的一些AI技術(shù),讓我們的AI有了感知的能力。另外,他們開始進行語音的識別、圖象的識別,而且我發(fā)現(xiàn)如果把語音和圖象的識別跟感知結(jié)合在一起,將會是未來一個很火熱的話題。從過去到現(xiàn)在,人類是從感知到智能,而機器是走了一條相反的路,所以機器的學習跟人類的學習是不一樣的。
為什么機器或者是AI的學習跟人類的學習是相反的呢,它們?yōu)槭裁床皇窍热ジ兄?,然后再去觀察呢?我們就必須要了解一下計算機解決問題的方案跟人類解決問題的方案是不一樣的,計算機看到一個東西,它會有自己的思維,而如果人看到一個東西,它會去進行描述,另外它還會跟別人進行爭論和探討,所以對人類來講,人類的學習模式是更適用于人腦的,而機器的學習模式是適用于機器的,所以對機器來講,推理是非常難的。
如果我們的機器的感知能力變得越來越好,現(xiàn)在的孩子花六七年的時間積累和了解、學習這個世界上的知識,如果機器在未來能夠有感知能力,它們就能幫助我們的孩子進行基礎(chǔ)知識的積累。另外,我也不是講相比人類,人工智能顯得并不是那么重要,在未來人工智能的推理技能將會得到極大的提高。而且不光是學習,機器對于視覺的信息和圖象的提取都會變得越來越好。另外,在未來我們還會訓練機器去進行說、理解和解釋這樣的連環(huán)的培訓。
現(xiàn)在AI技術(shù)為什么變得大熱呢?這是因為我們發(fā)現(xiàn)在現(xiàn)代的AI技術(shù)之下,我們能夠通過人工智能的技術(shù),讓我們的手機看到我們所看到的世界,并且這個手機還能把它看到的信息跟我們進行反饋。如果我們能夠?qū)崿F(xiàn)這樣的人機互動,每個人都能夠去用人工智能,大家都能知道在最新的圍棋比賽中,如果我們能夠使用這種人機共識或者是共同工作的狀態(tài),在未來AI技術(shù)會得到更大的應(yīng)用。同時,這個現(xiàn)象也有一些副作用,我們在生產(chǎn)生活的各個方面都看到AI技術(shù)的使用,在漫畫里邊大家能夠看到,當深藍計算機跟人類的棋手進行比賽的時候,它說“這是1970年,你不要跟我講AI,這時候AI技術(shù)還沒有這么智能”?,F(xiàn)在又走到了另一個極端,任何一個行業(yè)都在講AI,而深藍以及AlphaoGo,這些機器每天都在跟人類的智能進行比較和衡量。所以現(xiàn)在大家看到任何東西都要言必講AI,因為這是人們愿意聽到的,這也是AI大火帶來的一個負面作用。我覺得AI技術(shù)的大熱可能會讓我們蒙蔽了雙眼,不能看到它未來的前景。
現(xiàn)在當然我們能夠做圖象的抓取,能夠做語音的識別,但是這就夠了嗎?
這是阿基米德,他是希臘的哲學家,他說“如果你給我一個支點,我就能夠撬動地球”?,F(xiàn)在人們說,如果你給我一個足夠大的GPU和足夠大的數(shù)據(jù),我就會給大家創(chuàng)造出超智能。這種超智能看起來可能比較滑稽,但實際上它給我們彰顯了在未來人工智能的一個新的前景,那就是超智能。
現(xiàn)在我們必須要去吸取早期在80年代、90年代在深度學習和大數(shù)據(jù)方面所走過的彎路,并且看未來一步怎么走。這就給我們帶來了一些關(guān)于AI的風口期,我們都知道到目前為止,AI的發(fā)展是非??斓?,但是也有人認為AI走向了冷凍期。當然很有意思的一點,去年有一家公司說,我們可以使用面部識別的方法告訴你這個人到底是不是犯罪分子或者是恐怖分子,這樣我們可以建立起一個機器學習的系統(tǒng),最終能夠幫助我們?nèi)ヮA(yù)測哪些人可能會成為恐怖分子,這是一家以色列的公司,但是我并不確保這到底是不是所謂的人工智能的系統(tǒng)。在中國,人的智商也是非常高的,在去年我們可以看到有一個來自中國的數(shù)據(jù)。我們?nèi)绾问褂妹娌孔R別的方法,能夠幫我們進行人的面部的感知,以及包括一個推理,如果大家去到警察局,可能會看到有大量的人的照片,然后在云端尋找這些數(shù)據(jù),同時通過深度學習來進行推理,預(yù)測這些人是否會出現(xiàn)任何的犯罪行為。這些照片顯示的都是中國人,不是說他們都是犯罪分子,我們只是拍了他們的照片而已。
通過機器學習,可以進行犯罪分子預(yù)測行為的準確性達到95%,可以甄別誰是犯罪分子,誰不是犯罪分子,它可以通過我們幫助社會上的人是不是犯罪分子,但是這樣的系統(tǒng)也出現(xiàn)了很多爭議,大家在探討這到底是不是人工智能的一個好的應(yīng)用,這樣的方法是不是能夠使用在智能的犯罪分子的預(yù)測上。這篇文章要讓我們設(shè)想一下,為什么我們要在人工智能方面談倫理學,我特別談到這一點,對于任何復(fù)雜、強大的技術(shù),我們都要思考一下,我們到底應(yīng)該如何使用它,如何用一種謹慎的方法來使用他。當AI在發(fā)展的過程中,很多人報道關(guān)于AI的技術(shù),我們談到的只是技術(shù)本身,我們現(xiàn)在也要探討在人工智能方面的一些倫理方法,以及包括在技術(shù)使用上的倫理道德的原則。
這就讓我想起了另外一個組織,就是人工智能的合作伙伴關(guān)系,這個組織是由世界上非常知名的谷歌、微軟,以及臉書、IBM等等幾大公司發(fā)起的聯(lián)盟,我也是作為一個AI部門的理事加入到這個聯(lián)盟,我們這個組織最重要的目的,就是希望通過這個組織幫助我們了解,如何用有社會責任的方式來使用人工智能的技術(shù)。我們確實做出了很多的技術(shù)變革和技術(shù)發(fā)展,但是我們不希望用這個技術(shù)決定誰是犯罪分子,誰不是,因為這樣的做法實在是太瘋狂了。同時我們也可以探討其它的AI技術(shù)的使用,可能會造成人的隱私的泄露,或者是影響到公民的權(quán)利,從這一點來講,就是我們建立這個聯(lián)盟的原因,而我本人也是這個聯(lián)盟的理事。從我個人的角度來說,我們提到了關(guān)于安全重要的人工智能,以及包括一個公平、透明、可信的、問責制的AI,以及包括人和人工智能系統(tǒng)之間的合作。
我們這里特別提到了這一點,如果我們要讓AI來決定人到底是不是犯罪分子的話,我們不能找一些滑稽可笑的理由,我們必須要能夠向人們解釋出來,以合理、公平、道德的方式展示,為什么這樣使用。這是我今天演講特別要提到的,AI對我們的文化產(chǎn)生了非常大的影響,同時AI也帶來了大量的福祉。但是現(xiàn)在AI已經(jīng)是一個非常強有力的技術(shù)了,這個技術(shù)在發(fā)展過程當中,有很多的公司對其進行商業(yè)化,進行了大量的轉(zhuǎn)化。但是我們應(yīng)該想想這些技術(shù)的使用,如何能夠進行一個審慎的、具有倫理性的發(fā)展,我相信大家可以更好地了解我們AAAI,以及我們這個聯(lián)盟,事實上我們都在不斷地倡導對于AI技術(shù)的倫理性、道德行的使用。
在youtube上有這樣一個視頻,我在這里面特別提到了關(guān)于人工智能對社會倫理的影響,以及使用上的問題,如果大家感興趣的話可以看一看。
接下來我想跟大家探討的是,我們在智能、認知、感覺技術(shù)上的發(fā)展,特別是在感知技術(shù)和認知技術(shù)上的變化,還有一點就是我們對機器人的控制和操縱,從操縱的角度來說,我們也可以依靠大數(shù)據(jù)來達到這一點。但是我想問一下,我們是否就已經(jīng)做完了所有的研究呢?事實并非如此,我們?nèi)匀挥泻芏嗟奶魬?zhàn),在這里有一點就是我們現(xiàn)在大部分的學習和案例都是基于以機器為基礎(chǔ)的,學習知識為基礎(chǔ)的學習,但是它的案例數(shù)量仍然非常少。人類的學習一般是你給我一個片斷,或者我根據(jù)我自己所得到的知識來進行模擬、使用。但是目前在人工智能行業(yè)還做不到。還有另外一點就是常識,這一點是我稍后要跟大家探討的,還有一點就是世界的不完整性,我們可以看到目前我們所有的關(guān)于這個世界的了解仍然是不完全的,在我們做AI的過程當中,我們是否需要一個完全完整的知識?但是對人來說,我們都沒有辦法對全世界有一個清晰的認識,我們?nèi)绾文軌虼_保AI可以做到對世界完整的認識?還有一點就是交互,機器以及人工智能和人的交互。我們希望在和人交互的過程中,不會出現(xiàn)任何的不良事件,我們希望這個人工智能能夠和人進行緊密、有效、正向的聯(lián)系,而不會帶來過多的不良事件。稍后我會和大家探討一下這方面的研究上的挑戰(zhàn)。
首先我們來看一個常識。常識是我們經(jīng)常提到的,什么叫做常識?我最喜歡的就是麥哲倫的這個案例,很多人都有這樣的常識,我們大家都知道這個問題的答案是什么,但是對麥哲倫來說,他到底是在哪一次的旅程當中去世的?我相信在中文和英文當中都有同樣一點,如果你了解麥哲倫航海的故事,你就能非常清楚地了解到這一點。還有其它一點,我們可以看到從語義的角度來說,它從表面上是一模一樣的,但是我們到底能找出在同樣兩句話當中語義的差別是什么?從2016年開始,我們就開始進行關(guān)于語義的了解,我們?nèi)ツ觊_始了一個比較大的競賽,這個競賽最終的結(jié)果事實上并不是非常的有效,我們希望能夠真正地尋找到在同樣的語言背后的語義的變化,能夠讓我們的人工智能真正了解到這一點,同時能夠幫助我們更好地了解到這個機器所沒有辦法了解到的人類的自然語言的語義變化。事實上還有其它的一些變化,我也想和大家進行分析,就像我們提到的關(guān)于麥哲倫的這個問題也是如此。
我剛才和大家提到了一個不完整性,也是一個非常大的挑戰(zhàn)。因為現(xiàn)在越來越多的人開始探討超級智能,或者是包括智能至高無上的發(fā)展,以及機器的完全智能,它們將取代全世界,人類將會滅絕,或者有人說人類會成為機器的奴隸,我覺得你完全不用擔心這些部分,因為我相信如果我們有這種殺戮的機器,如果它使用的是一個對世界的不完整認知,它確實會帶來很多負面影響。但是對我們來說,它這樣的一種結(jié)果是非常不可預(yù)見的。我們?nèi)绾文軌蛟谝环N不完全的模式下,能夠?qū)C器來進行訓練,這一點是非常重要的,接下來這個部分我還會談這個觀點。
最后一個部分我想和大家探討的是一個非常大的挑戰(zhàn),也就是我們?nèi)绾稳ゴ_保人工智能和人來進行共同的交互。這一點也是在接下來的十幾分鐘我會和大家進行分享的。
在這里我想和大家特別提出的是,在人工智能當中,人工智能作為一個整體,它和人之間的關(guān)系是非常有意思的,他們希望能夠幫助人類,但是他們并不是非常希望能夠看到在人機協(xié)作方面所出現(xiàn)的大量的問題。大家想想下一次你提到人工智能的發(fā)展的時候,我們可能花了很多的時間來看我們的人工智能的機器戰(zhàn)勝了非常知名的棋手,它在幫助人的同時也戰(zhàn)勝了人,很多人提到了人工智能和人之間的關(guān)系的惡化。與此同時還有一點就是在之前的文章當中,很多人提到人工智能會取代人,人將會成為人工智能的奴隸。但是對于我們來說,我們自己應(yīng)該要關(guān)注這一點,特別是對于人工智能的負面報道,我們必須關(guān)注。
去年我負責了我們的全球人工智能聯(lián)合大會的國際會議的主辦,當時我們就建立起一個特別團隊,我們提到了應(yīng)該是有意識的人工智能,我們特別提到了關(guān)于人和機器如何能夠得到有效的結(jié)合,能夠共同協(xié)作,這才是最為重要的。在那次會議上,我們就提到了我們?yōu)槭裁匆饔^地設(shè)計這樣一個未來,我們?yōu)槭裁匆ピO(shè)計一個讓我們自己能夠擔憂的未來,而與此同時,你們?nèi)绻J為機器能夠戰(zhàn)勝人類的話,人還應(yīng)該做什么事情呢?我們?nèi)藨?yīng)該是能夠讓機器輔助人,增強人的能力,這是需要我們各界相互協(xié)作。很多人提到了有意識的人工智能,人工智能或者是有意識的人工智能,可以真正地將我們從傳統(tǒng)的機器人為主導的趨勢中救出來,我們相信對機器人的負面的報道也會不斷地減少。
這是JASON報告,這是一個非常知名的智囊團和咨詢團,他們?yōu)槊绹煌牟块T提供服務(wù),我之前參加過一個JASON的會議,有一個人說了我們現(xiàn)在必須決定的三大問題。在JAZON現(xiàn)在進行了大量的關(guān)于人工智能的研究,同時他向我們展示我們?nèi)绾卧谌斯ぶ悄艿母鱾€方面發(fā)力,其中他特別提到了一點,就是以增強人類生產(chǎn)力為發(fā)展的人工智能,將會最終走向有意識的人工智能的發(fā)展。與此同時,我們可以看到當我們在預(yù)測未來的人工智能發(fā)展的時候,也有一個白宮的報告,它特別提到了我們必須要尋找到有人類意識的人工智能的新算法。
現(xiàn)在我們已經(jīng)進入了人工智能2.0時代,我們會走向更多的人機協(xié)作的時代。為什么我們必須要讓人們意識到這一點?為什么我們會提到這一點?為什么我們在做這方面的工作?我在這里和大家探討一下目前在AI方面的社會學問題。當每次提到人機協(xié)作的時候,人們都是覺得好像是一種期待的過程,大家覺得只是人去解決問題,而機器就站在旁邊,什么都做不了。對于我們在座的很多年輕人,或者是各位工程師、技術(shù)人員,我們都知道這是我們真正的機器對話,這個機器可以有非常好的智能,但是這個機器后面還有一個人,他在闡述這個機器人,但是里面藏著一個真正的人,這是一種謊言,這樣的謊言其實是人們希望有人的感知能力的人工智能發(fā)展。
人工智能還有沒有別的挑戰(zhàn)?如果機器做的事情越來越多,人的能力會不會被機器取代?大家都認為,如果機器的能力越來越高,我們就不需要人了。我們再看一下人機融合或者人機合作,人機合作就能拓寬AI技術(shù)的深度和廣度,而現(xiàn)在人機融合也能打消人們的擔憂,比如說有些人擔憂機器人將會取代所有的人類進行工作,如果進行人機協(xié)作的話,就打消了這種疑慮,同時人機合作或者是有意識的人工智能,它還是一種全新的研究方向,這在未來可能會被認為是一件很酷的科研的方向?,F(xiàn)在有許多新的科研的挑戰(zhàn)在人機融合方面,從高層或者是政府層面來看是看不到的,我們講人機融合在操作上有許多的問題需要解決。
有人說,人們需要我們自己的大腦,不光是去看老虎,看獅子,而是去互相觀察,在大多數(shù)時候,人類的大腦實際上做的事情不是自然的觀察,而是社會的行為,比如說我們會傾聽、交流和互動,這也就是人腦和機器的大腦能夠互相進行合作的地方。因為人腦具有社會交際的功能,所以它能夠填補機器在這方面的空白。
(見PPT)這一張片子是我在前面給大家看到的,我剛剛沒有講過情感和社會的智能,但情感和社會的智能恰恰是人腦所擁有的,并且擅長的,我們利用這兩個方面的智能教育孩子在學校里要守紀律,并且我們告訴他們?nèi)绾握瓶刈约旱那榫w。同時我們還有社會的智能,社會智能讓我們更好地跟別人進行互動,比如說如果沒有這種情感和社會的智能,我們在采訪的過程中,可能采訪人和被采訪人之間就不會進行任何的互動,如果機器人去采訪,他就會丟掉這份采訪的工作,因為他沒法和他的采訪對象之間進行互動。另外,情感和社會的智能還會幫助人工智能模擬人腦,并且逐漸的具有一些情緒和社會的智能。現(xiàn)在我們已經(jīng)知道,如果人們開始不使用AI系統(tǒng),是因為AI系統(tǒng)沒有社會和情感的智能,對于現(xiàn)在在座的一些微軟的專家,可能聽起來不是那么高興,因為人工智能的確沒有社會和情感的智能,而我們知道在微軟的辦公室里,他們會有一種機器人,會幫助他們的員工去進行工作。在這個機器人身上體現(xiàn)了微軟現(xiàn)在已經(jīng)取得的所有最新的機器人和人工智能的技術(shù),但是當比爾蓋茨宣布他要退休的時候,在座的所有的員工都有了情感,有的人開心,有的人難過,有的人可能會哭。但是他們就發(fā)現(xiàn)跟他們在一起工作的這些機器人是完全沒有任何情感表示的,這也就是說如果我們在平常工作的過程中表現(xiàn)欠佳,我們需要同伴對我們進行一個情感安慰的時候,跟我們一起協(xié)作的機器人是做不到的,因為它們本身并沒有情感。所以我們現(xiàn)在要開始考慮這種機器的輔助人工智能是否能夠被引入到工作場合中去,因為它們本身并不具備情感和社會的智能。
現(xiàn)在大家再看一個智能主體的結(jié)構(gòu)。我們會有一個智能的主體,首先我們要看在這個智能主體之內(nèi),它有制動器,也有傳感器,我們會看世界,觀察這個世界的信息。而對于人腦來講,人腦也是一個智能主體,但是他觀察信息的方式是完全不一樣的,大家知道人腦,我們也可以模擬人腦,我們會發(fā)現(xiàn),如果我們讓AI的機器模擬人腦的時候,我們就會看到在這張表上一個智能主體的結(jié)構(gòu)變得非常的復(fù)雜和豐富。舉個例子,如果是出現(xiàn)一個表征的情況,他們不光能夠看到現(xiàn)在是什么樣,而且他們會想到此刻我周圍的人在考慮什么,我周圍的人考慮的東西和我之間有沒有什么關(guān)系。機器不光是對周圍的信息感興趣,而且他開始因為新的人機融合的智慧主體,開始對周圍的事情產(chǎn)生關(guān)聯(lián)和聯(lián)想。就像人腦一樣,我們的機器和人腦進行融合,就會關(guān)注越來越多的周遭環(huán)境的信息,包括這個人在想什么,這個人下一刻在想什么,他想的東西跟現(xiàn)在的環(huán)境有沒有關(guān)系,另外我們還要對這些信息保持持續(xù)的追溯。所以人腦抓取信息是越來越復(fù)雜和豐富的,如果進行人腦融合的話,我們就可以讓機器感知和解決現(xiàn)實中的問題。如果我們關(guān)著門一個人待起來的話我周遭的世界是很簡單的,但是在社交生活中永遠都不是一個人在閉門造車,所以我們需要社會的智能和情感的智能來彌補機器所不具備的這兩部分的技能。
我們接下來再看這張圖片,在接下來的幾分鐘我會講一講我們的團隊在人類意識的人工智能方面做了哪些研究。我們主要是研究人和機器不同的決策、學習的過程,然后去進行和人機融合的模擬,另外我們還要人和機器一起合作,在這里面大家可以看到,我們讓一個人和機器進行對話,讓機器試圖去理解它對面的這個人的意圖,通過理解到的意圖做相應(yīng)的動作。比如說他張開雙臂是代表什么意思,他把手放在桌子上是什么意思。當然在這個項目里邊我們也投入了大量的資金,到現(xiàn)在為止我們的技術(shù)能夠在某種簡單的層面下去讓機器了解到它的人類的協(xié)作者希望它做什么,并且了解人類的意圖,而通過人類的表情去看這個人是開心或者是不開心。另外人類還會給它發(fā)送不同的信號,有些信號代表的是高興,有些信號代表的是不高興,機器要根據(jù)接收到的信號做相應(yīng)的判斷,并且它不光是要做人類期望它做的動作,而且要做人類接下來在下一個環(huán)節(jié)希望它繼續(xù)去從事的動作。因為一般情況下,我們可能都很容易去了解我們想做什么,別人希望我們做什么,但是別人為什么希望我們這么做是一個更加復(fù)雜的命題,所以在人機訓練的過程中,我們訓練機器聽我們的指令,不光是了解我們的意圖,我們不光做人類的語言,跟機器進行溝通,同時還加上手勢和表情,而如果手勢和表情不足夠的話,我們還提供額外的信息來讓機器了解人類,讓它做某種動作的意圖是什么,期待是什么。
舉個例子,在荷蘭我們做了一個類似的實驗,人們看到前面的一個球,然后把信號傳遞給機器,機器自己去感知它到底是不是要去抓這個球?,F(xiàn)在大家來看這個機器和人試圖抓取桌子上的積木,而機器人需要了解,當人類開始去抓取的時候,人類希望它怎么做,所以通過人機協(xié)作,人類的情感和社會智能就彌補了機器所不具備的情感和社會的智能。
我們現(xiàn)在看一下有哪些挑戰(zhàn)。首先,我們必須要有一個很好的人類和機器互動的體制,我剛剛也講過,現(xiàn)在世界上最復(fù)雜的一個問題就是我們?nèi)タ紤]旁邊那個人在想什么,這是世界上最難以解決的命題,所以要考慮到人類的思維實際上是很難解決的,我們要訓練機器去了解它旁邊的人在想什么,這是難上加難的問題。另外,我們不光要確保機器去了解它旁邊的這個人想什么,而且要能夠根據(jù)它的判斷去做出一個明確的行為。另外還有一點就是,大家都知道我是一個AI的專家,但是即便是我這樣的專家,我也沒有辦法研制出一個機器人,讓它完全了解人類的意圖,并且跟人類進行互動。當然,我們都知道如果真的有這樣一個機器人產(chǎn)生,它可能會更好地跟人類進行相處,因為它能夠了解在這個封閉的社交環(huán)境里邊人類希望它做什么,但實際上要做出這樣的機器人是非常難的。另外我們也需要各國的政府批準人機可以在某種層面上進行互動和協(xié)作。舉個例子來說,在某些特別的情況下讓機器人跟人類一起去互動是不是一種可以被接受的情況,另外在某些細分的行業(yè),比如說國防,是不是人可以和機器人進行合作。另外,在這張圖片上大家可以看到,機器人對于世界有自己的感知,而人類有大腦里邊自己的關(guān)于機器能做什么的預(yù)設(shè),這兩個預(yù)設(shè)之間是不是完全一樣的?未必。我們必須要讓人類去了解他們腦中所設(shè)想的那個機器能做的事情,并不是真正機器在大腦里頭所想的東西。我們必須要讓機器人能夠更好地跟人類溝通,比如說到底如何從一個目的地走向另外一個目的地,在前進的過程中最短的路徑是什么,最好的計劃是什么,人類和機器還有很多的在這樣的簡單互動方面需要協(xié)作的東西。另外還有如何去制定計劃,如何把制定出來的計劃用清晰的語言去解釋出來。所有這些溝通的方方面面都會影響到人機融合未來的前景。
我差不多講到這里,最后我會給大家放一個短片。我再簡單地回顧一下我剛剛講的所有的東西,首先我給大家做了一個簡單的關(guān)于AAAI的介紹,AAAI是美國人工智能學會,我們每年都接收關(guān)于人工智能方面的論文。今天關(guān)于人工智能的研究已經(jīng)成為我們社會責任的很重要的一部分,而且我們也可以看到中國在全球的人工智能方面的貢獻正在變得越來越多,因為我們收到的每兩篇人工智能的論文里面就有一篇是來自中國學者的。其次我還講了人類的嬰兒和機器在學習方面的差異。另外我還講了現(xiàn)在AI技術(shù)的一些專業(yè)的門檻。最后我講了如何進行人機協(xié)作,并且培養(yǎng)出有人類智能的人工智能,當然這也是我們未來非常困難的命題,這也是像我這樣的科學家在未來可能去解決的問題。因為大家都知道,最終的目的實際上不是讓機器去取代人類,而是讓人類更好地跟機器協(xié)作。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。