0
AI 領(lǐng)域所取得的最新進(jìn)展給 AI 系統(tǒng)帶來的進(jìn)步,舉世矚目,但是仍有一些批評者聲稱,即便如此,這些系統(tǒng)仍舊無法實現(xiàn)“真實”、“準(zhǔn)確”、“可信賴”的理解。
針對這個問題,機(jī)器學(xué)習(xí)領(lǐng)域的奠基人之一 Thomas G. Dietterich 教授親自撰文詳細(xì)地表達(dá)了自己的觀點。他指出,“理解”以一種連續(xù)的能力譜而存在,比如大部分人對“水”的理解,可能限于水的一般屬性,而不知道水的導(dǎo)電等屬性,但我們只會認(rèn)為他們對水的理解不全面,而不會說他們的理解不“真實”、“準(zhǔn)確”、“可信賴”。
我們同樣應(yīng)該以這種態(tài)度來評估 AI 系統(tǒng)。
與此同時,他既不贊成“如今的基于深度學(xué)習(xí)的系統(tǒng)沒有表現(xiàn)出真正的理解,因此應(yīng)放棄深度學(xué)習(xí)”,也反對 “當(dāng)今基于深度學(xué)習(xí)的系統(tǒng)已經(jīng)取得了巨大進(jìn)步,進(jìn)一步研究它們將‘搞定智能’”,他的觀點具體如何,我們下面具體來看:
作為機(jī)器學(xué)習(xí)領(lǐng)域的奠基人之一,Thomas G. Dietterich的研究貢獻(xiàn)主要包括將糾錯輸出編碼應(yīng)用于多類分類問題,他發(fā)明了多示例學(xué)習(xí)、層次強(qiáng)化學(xué)習(xí)MAXQ框架及將非參數(shù)回歸樹整合到概率圖模型中的方法。此外,Dietterich教授也參與撰寫了美國白宮發(fā)布的兩份重磅AI報告:《為人工智能的未來做準(zhǔn)備》和《美國國家人工智能研究與發(fā)展策略規(guī)劃》。
運(yùn)用“真實”、“準(zhǔn)確”、“真正”這類詞意味著“理解”是二元的,即:一個系統(tǒng)要么能“真正”的理解,要么不能。這種思維方式的紕漏在于,人類的理解也是不完整和不完美的。
Thomas G. Dietterich 教授主張“理解”以一種連續(xù)的能力譜而存在。比如,對于“水”這一概念,很多人能想到水的性質(zhì):潮濕、可飲用、植物必需、遇冷結(jié)冰等等。但同時,很多人并不知道,水也是一種電導(dǎo)體,因此淋浴的時候不能使用吹風(fēng)機(jī)。即便如此,我們也不能說這些人沒有“真實”、“準(zhǔn)確”、“真正”地理解 “水”,只能說他們的理解是不全面的。
因此,我們應(yīng)該以同樣的態(tài)度來評估 AI 系統(tǒng)。現(xiàn)有的系統(tǒng)已表現(xiàn)出某種程度的理解。例如:當(dāng)我對 Siri 說 “打給 Carol”,而 Siri 也撥出了正確號碼,這能夠表明系統(tǒng)理解了我的指令;當(dāng)我問 Google “IBM的Deep Blue系統(tǒng)擊敗了誰?”,它回答:“Kasparov”,這也能證實系統(tǒng)理解了我的指令。當(dāng)然這種理解有一定限度,當(dāng)我繼續(xù)問 Google:“when?”它就只能給我解釋詞典上關(guān)于“when”的解釋。顯然它沒有把我第二個問題當(dāng)做對話的一部分。
關(guān)于“理解”的爭論可以追溯到亞里斯多德,而在 Searle的“Chinese Room argument”(無論程序如何聰明或像人類一樣,執(zhí)行程序的數(shù)字計算機(jī)都不能表現(xiàn)出“頭腦”,“理解”或“意識”)對于“理解”的認(rèn)識更為清楚。我堅持主張功能主義,他們以功能上的理解為特征,并根據(jù)它們在產(chǎn)生測量功能中的因果作用來評估大腦或AI系統(tǒng)中各種內(nèi)部結(jié)構(gòu)的貢獻(xiàn)。
從軟件工程的角度來看,功能主義鼓勵我們設(shè)計一系列測試來衡量系統(tǒng)的功能。我們可以問一個系統(tǒng)(或一個人),如果“我把水冷卻到20度會怎么樣?”或者“如果我在淋浴時使用吹風(fēng)機(jī)會發(fā)生什么?” 然后測試反應(yīng)。當(dāng)系統(tǒng)的回答在一定范圍內(nèi)是適當(dāng)?shù)?,我們認(rèn)為系統(tǒng)理解正確;當(dāng)系統(tǒng)的回答在一定范圍內(nèi)是錯誤的,針對這一點我們已經(jīng)發(fā)現(xiàn)了系統(tǒng)不理解的情況。
為了使系統(tǒng)能夠理解,它必須在不同的概念、狀態(tài)和動作之間建立聯(lián)系。當(dāng)今的語言翻譯系統(tǒng)可以正確地將英語中的“水”與西班牙語中的“水”連接起來,但是在“水”和“導(dǎo)電體”之間沒有任何聯(lián)系。
對人工智能最新進(jìn)展的批評主要來自兩個方面:
第一,圍繞人工智能的炒作(由研究人員、他們工作的組織、甚至政府和資助機(jī)構(gòu)制造)已經(jīng)達(dá)到了極端的程度。它甚至引發(fā)了“超級智能”或“機(jī)器人末日即將來臨”的恐懼。要反駁這種無稽之談,批評是必不可少的。
第二,批評是關(guān)于人工智能技術(shù)未來研究方向以及政府撥款分配的辯論的一部分。一部分批評者是聯(lián)結(jié)主義的倡導(dǎo)者,他們發(fā)展了深度學(xué)習(xí)并支持繼續(xù)進(jìn)行這一研究。領(lǐng)一部分批評者倡導(dǎo)基于符號的構(gòu)造和操縱(例如,使用形式邏輯)的AI方法。也有越來越多的社區(qū)主張在混合架構(gòu)中結(jié)合這兩種方法的系統(tǒng)。
批評對于此討論也至關(guān)重要,因為 AI 社區(qū)必須不斷挑戰(zhàn)我們的假設(shè),并選擇如何投入社會的時間和金錢來促進(jìn)AI科技的發(fā)展。
然而,Thomas G. Dietterich 教授反對這樣的論點,即“如今的基于深度學(xué)習(xí)的系統(tǒng)沒有表現(xiàn)出真正的理解,因此應(yīng)放棄深度學(xué)習(xí)。”
他認(rèn)為,這個論點與 “當(dāng)今基于深度學(xué)習(xí)的系統(tǒng)已經(jīng)取得了巨大進(jìn)步,進(jìn)一步研究它們將‘搞定智能’”的論點一樣是錯誤的。我們應(yīng)該繼續(xù)追求聯(lián)結(jié)主義方案,象征主義方案,以及新興的混合方案,因為它們都將繼續(xù)富有成效。
對深度學(xué)習(xí)的批評已經(jīng)引領(lǐng)了新的方向。特別是,深度學(xué)習(xí)系統(tǒng)可以在各種基準(zhǔn)任務(wù)上與人類的表現(xiàn)相匹配,但卻不能推廣到超級的、真正非常相似的任務(wù),這已經(jīng)在機(jī)器學(xué)習(xí)中產(chǎn)生了危機(jī)??茖W(xué)家們用一些新的思想諸如學(xué)習(xí)不變量、發(fā)現(xiàn)因果關(guān)系等模型來回應(yīng)此類問題。這些思想既適用于符號學(xué)習(xí),也適用于聯(lián)結(jié)主義機(jī)器學(xué)習(xí)。
我們應(yīng)該在不涉及“什么才是真正的理解”的爭論的情況下,追求人工智能科學(xué)技術(shù)的進(jìn)步。相反地,Thomas G. Dietterich 教授鼓勵我們將重點放在我們應(yīng)該在未來 5 年、10年或50年內(nèi)努力實現(xiàn)的系統(tǒng)功能上。
我們應(yīng)該根據(jù)可以在 AI 系統(tǒng)上執(zhí)行的測試來定義這些功能,以衡量它是否具有這些功能。為此,這些能力必須付諸實施。簡而言之,他指出測試驅(qū)動的AI發(fā)展。這就要求我們將模糊的理解和智力概念轉(zhuǎn)化為具體的、可衡量的能力。這本身就是一個非常有用的練習(xí)。
操作測試不必只考慮AI系統(tǒng)的輸入輸出行為。它們還可以檢查產(chǎn)生此行為的內(nèi)部結(jié)構(gòu)(數(shù)據(jù)結(jié)構(gòu),知識庫等)。
人工智能優(yōu)于神經(jīng)科學(xué)的一大優(yōu)勢是,我們可以更輕松地在人工智能系統(tǒng)上進(jìn)行實驗,以了解和評估其行為。然而,需要注意的是,包括深度學(xué)習(xí)在內(nèi)的聯(lián)結(jié)主義方法通常會創(chuàng)建難以解釋的內(nèi)部結(jié)構(gòu),和大腦有些類似。
因此,我們不應(yīng)該將確保某些結(jié)構(gòu)(例如,符號表示)存在作為研究目標(biāo)。相反,我們應(yīng)該專注于所需的行為能力,并詢問內(nèi)部機(jī)制如何實現(xiàn)這些能力。例如,要進(jìn)行成功的對話,每個參與者都必須跟蹤互動的歷史。但是現(xiàn)已有很多方法可以做到這一點,我們不一定要期望在深度學(xué)習(xí)系統(tǒng)中建立明確的歷史記憶。相反地,僅僅因為我們編寫了一個特定的內(nèi)部結(jié)構(gòu),也并不意味著它就按我們所希望的那樣運(yùn)行。Drew McDermott 在他的著名評論《人工智能與自然愚蠢》中詳細(xì)討論了這個問題。
人工智能不斷發(fā)展和批評的浪潮的結(jié)果之一就是所謂的“人工智能效應(yīng)”,其中人工智能領(lǐng)域被認(rèn)為是失敗的,因為最先進(jìn)的系統(tǒng)沒有表現(xiàn)出真正的理解或真正的智慧,其結(jié)果就是AI的成功被忽視,經(jīng)費(fèi)被取消。
例如,曾經(jīng)有一段時間,下棋或下圍棋被認(rèn)為是衡量智力的一種標(biāo)準(zhǔn)。但是,1997年,當(dāng)Deep Blue擊敗Kasparov時,一位著名的人工智能研究人員認(rèn)為,在國際象棋中擊敗人類已經(jīng)展現(xiàn)出真正的智能,而同時必須解決“卡車倒車的問題”,這涉及將一輛鉸接式半掛車倒進(jìn)停車位(個人通信)。
實際上,九年前Nguyen和Widrow已經(jīng)使用強(qiáng)化學(xué)習(xí)解決了這個問題。如今,許多有思想的評論家再次提出新任務(wù),并提出新的必要或充分條件,以聲明系統(tǒng)“可以理解”。
同時,人工智能研究與開發(fā)正在提供功能越來越強(qiáng)大的系統(tǒng),這些系統(tǒng)可以為社會帶來價值。人工智能研究人員為人工智能的成功正名,同時也承認(rèn)了人工智能的缺點,這對學(xué)術(shù)誠信和持續(xù)的資助都很重要。
Thomas G. Dietterich 教授指出,我們必須遏制圍繞 AI 新進(jìn)展的炒作,我們必須客觀地衡量 AI 系統(tǒng)在哪些方面了解用戶(是否了解用戶)、它們的目標(biāo),以及他們操作的更廣泛的真實世界。
“讓我們不要再認(rèn)為人工智能的成功是虛假的、不真實的,讓我們繼續(xù)以誠實和富有成效的自我批評向前邁進(jìn)?!?nbsp;雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
via https://medium.com/@tdietterich/what-does-it-mean-for-a-machine-to-understand-555485f3ad40
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。