丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能學術 正文
發(fā)私信給叢末
發(fā)送

0

對話 IJCAI 2019 特邀講者 Leslie Kaelbling:與 AI 和機器人結(jié)緣背后的故事(上篇)

本文作者: 叢末 2019-04-13 15:40 專題:IJCAI 2019
導語:計算機科學最終會告訴我們 AI 當前面臨所有問題的正確答案。

雷鋒網(wǎng) AI 科技評論按:IJCAI(國際人工智能聯(lián)合會議,International Joint Conferences on Artificial Intelligence)是人工智能領域歷史最為悠久,也是影響力最大的學術會議之一,隨著近年來人工智能的熱度日益攀升,原本僅在奇數(shù)年召開的 IJCAI 自 2015 年開始變成每年召開。今年,萬眾矚目的 IJCAI 也將如約而至,將于 8 月 10 日至 16 日在中國澳門隆重召開。

特邀報告(Invited Talks)作為 IJCAI 最受關注的環(huán)節(jié)之一,隨著會議的臨近,特邀講者名單也在相繼公布中。機器人作為人工智能領域的一個非常重要的研究方向,本次大會也特別邀請了機器人專家、麻省理工教授 Leslie Kaelbling 做特邀報告。屆時,她將帶來主題為《Doing for our robots what evolution did for us》的特邀演講。

Leslie Kaelbling 是麻省理工學院的機器人專家。 她在強化學習、規(guī)劃、機器人導航等人工智能研究領域獲得了引人注目的研究成果,其中包括將運籌學中的部分可觀察的馬爾可夫決策過程應用到人工智能和機器人中,曾獲得 IJCAI「計算機與思想獎」(Computers and Thought Award)等重要獎項,同時她也是人工智能領域頗負盛名的《機器學習研究雜志》的創(chuàng)始人兼主編。

近日,麻省理工學院教授 Lex Fridman 在其播客訪談節(jié)目《Artificial Intelligence Podcast》中與 Leslie Kaelbling 進行了對話。對話中,Leslie Kaelbling 不僅分享了她從哲學領域轉(zhuǎn)入計算機科學領域,并與 AI 和機器人結(jié)緣的背后的故事,還詳細闡述了其對于機器人發(fā)展歷程以及現(xiàn)狀的見解。

采訪視頻播放地址:https://www.youtube.com/watch?v=Er7Dy8rvqOc

對話 IJCAI 2019 特邀講者 Leslie Kaelbling:與 AI 和機器人結(jié)緣背后的故事(上篇)

雷鋒網(wǎng) AI 科技評論將采訪視頻整理成文如下,全文進行了不改變原意的刪改。

Leslie Kaelbling:說到是什么讓我對 AI 產(chǎn)生了濃厚的興趣,就不得不提我在高中時期閱讀的《哥德爾、艾舍爾、巴赫》(G?del, Escher, Bach)。這本書對我來說極具塑造性,它讓我感受到了原函數(shù)和組合函數(shù)的另一種趣味性,也讓我更加了解怎樣將復雜的事情與簡單的部分區(qū)分出來,并開始思考怎樣的 AI 以及程序才能夠讓機器產(chǎn)生智能行為。

Lex Fridman:因此您最開始喜歡上的其實是 AI 與機器人的推理邏輯。

Leslie Kaelbling:是的,喜歡機器人則是因為我的第一份工作。當時我從斯坦福大學的哲學專業(yè)畢業(yè),正打算去讀計算機科學的碩士,然后我被 SRI 錄用了,進入到他們的 AI 實驗室工作。他們當時正在研發(fā)一款類似于 Shaky 的后代機器人,但是 Shaky 原來的研發(fā)者都不在了,因此我的工作就是嘗試讓這個機器人擁有做事情的能力。這也是讓我真正對機器人產(chǎn)生興趣的契機。

Lex Fridman:我們先稍微回顧一下您的大學生涯。您在斯坦福大學獲得了計算機科學的碩士和博士學位,但是您的大學本科讀的是哲學專業(yè),那您認為哲學中有哪些部分是您可以應用到計算機科學的研究中的。

Leslie Kaelbling:哲學與計算機科學是緊密相關的。我在大學本科期間沒有讀計算機專業(yè)是因為斯坦福大學當時還沒有開設這個專業(yè),但是實際上,斯坦福大學開設了一些特殊的輔修課程,比如現(xiàn)在稱作符號系統(tǒng)(symbolic system)的學科,這門課程教授的內(nèi)容是邏輯模型理論(logic model theory)以及自然語言的形式語義(formal semantics of natural language)。這對于我之后從事 AI 和計算機科學的研究做了一個完美的鋪墊。

Lex Fridman:這非常有意思。當時如果對 AI 感興趣的話,大家一般會選擇上哪些計算機相關課程?您當時對于 AI 的想法深為著迷,除了哲學,還源自于什么其他的原因?

Leslie Kaelbling:當時并沒有很多人從事這個方向的研究,甚至也沒有什么人探討它。但是我大學的同班同學倒是都對人工智能挺感興趣的:我們班有接近一半的人轉(zhuǎn)向計算機科學專業(yè)深造,近一半的轉(zhuǎn)向法律專業(yè)深造,而只有一兩位同學繼續(xù)留在哲學專業(yè)學習。所以哲學專業(yè)和計算機科學專業(yè)二者間其實是有相當普遍的關聯(lián)性的。

Lex Fridman:你認為 AI 研究人員是否需要擁有哲學家的另一重身份,還是說他們應該堅持從事「硬」的科學和工程研究,而不需要進行一些哲學思考?也就是說,如果研究者從事于機器人研究,卻無法很好地從哲學上的大視角來看待研究問題,又該用什么來驅(qū)動他們研究出出色的 AI 呢?

Leslie Kaelbling:我認為哲學專業(yè)中與 AI 最緊密相關或者說與 AI 有點關系的,就是信念、知識以及表示這些東西。這些其實都是非常形式化的東西,似乎距離我們所做的常規(guī)計算機科學工作只有一步之遙。我認為現(xiàn)在非常重要的問題依舊是,你可以用機器來做什么以及不能做什么。盡管我個人完全是一個唯物主義者,但我認為我們沒有理由無法開發(fā)出一個行為舉止與人類毫無區(qū)別的機器人,而判斷它與人類是否有區(qū)別的關鍵在于它的內(nèi)心是否是有直覺或哲學思維。實際上,我并不知道自己是否非常在意這個。

但是我們現(xiàn)在不知道它們獲得哲學思維,進行感知和規(guī)劃,以及在現(xiàn)實世界中順利運行有多難。畢竟現(xiàn)在的機器人在很多任務上,都還做不到像人類一樣。

所以問題實際上就是,現(xiàn)在機器人和人類在哲學上還存在巨大的差距。我們都知道,如果機器人要在現(xiàn)實世界應用這些知識,就需要對這些知識進行擴展,并需要擁有形成常識以及在大部分工作中進行不確定性推理的能力。這些都是開放性的問題,我不知道要怎樣去用確定而全面的視角看待這些問題。

對于我來說,這似乎并不是一個哲學差距的問題,而是一個技術上的大難點,除此之外,我并不認為機器人和人類在其他方面存在差距。

Lex Fridman:好的。您是否認為 AI 還存在一些遺憾呢?還記得當您開始對機器人學或機器人產(chǎn)生興趣的時候,當時對 Shaky 機器人有什么印象?您當時對于機器人的想象是否實現(xiàn)了呢?

Leslie Kaelbling:我最開始研究的機器人是 Shaky,它是 SRI 研究人員開發(fā)出來的機器人。當我第一次踏入 SRI 的時候,當時它正站在某個辦公室的角落,正在將液壓油滴在一個鍋中。這個機器人是相當具有標志性的,每個人都應該讀到過 Shaky 的技術報道,因為它身上匯聚了許多非常好的想法,比如他們不僅將很好的搜索、符號規(guī)劃和學習的宏操作符都應用到了機器人身上,還對機器人進行了較初級的空間規(guī)劃配置,并且為 Shaky 配置上了手臂。他們在很多方面都有了比較清晰的基本思路。

Shaky 是一個移動機器人,它可以推動物體,在它自身搭載的執(zhí)行器和底座的幫助下,可以將物體移到旁邊去。同時,它還能夠使用它的視覺去進行自我定位、探測物體,并基于它所看到的東西進行規(guī)劃,并推理是否要探視和拍照。我覺得,當時它對我們現(xiàn)在所能想到的很多事情都有了基本的認知。

Lex Fridman:您認為它是怎樣表示周圍的環(huán)境空間的呢?

Leslie Kaelbling:它對于許多不同程度的抽象表示都有認知,我認為,它對于低級別的抽象表示,會使用某種占用網(wǎng)格;對于高級別的抽像表示,它會使用針對某種空間以及關聯(lián)性的抽象符號。

Lex Fridman:現(xiàn)在有一個詞叫「片狀」(flaky)。

Leslie Kaelbling:是的。當時在 SRI 的時候,我們正在開發(fā)一個全新的機器人。正如我剛剛所說的,團隊中沒有一個人是來自于之前 Shaky 那個項目的,因此我們相當于是從頭開始。當時是我的導師并最終也成為了我的論文導師的 Stanresinshine,就曾受到「情景計算」(Situated Computation)或者說「情境自動裝置」(Situated Automata)這個想法的啟發(fā)。這個想法就是:邏輯推理的工具非常重要,但是可能僅有工程師或者設計者會將這個工具用到系統(tǒng)的分析中,此外,這一工具不一定要應用到系統(tǒng)自身的頭部中。

當時我認為可以使用邏輯去證明關于機器人行為的理論:即使機器人不使用它頭部的邏輯,它也可以進行手臂的動作。這就是區(qū)別。而這個想法就是使用這些原則去開發(fā)可以做事情的機器人。不過當時,我自己需要學習大量的基礎工作,因為我沒有機器人學背景,不知道任何機器控制、感知相關的知識。所以在這一過程中,我們把很多技術都重新研發(fā)了一遍。

Lex Fridman:那您認為這是優(yōu)勢還是阻力呢?

Leslie Kaelbling:我的意思是說,在這個過程中,你可以學到很多事情,并且最終攻克問題以后也能更清楚地明白自己走到了哪一步。

Lex Fridman:您能總結(jié)一下 AI 和機器學習強化學習的歷史,以及您怎樣看待它從 20 世紀 50 年代至今的發(fā)展?

Leslie Kaelbling:它的發(fā)展的一個重要特點就是徘徊:變得火熱之后又落到低谷,之后又變得受歡迎,隨后又落到低谷...... 實際上,我認為它的進程很大程度上是由社會學進程所驅(qū)動的。

早期,它的發(fā)展是控制論的發(fā)展有關,人們以動態(tài)平衡的思路開發(fā)機器人,當機器人需要動能的時候,就為它們充電,之后它們就可以在周圍滾動,做事情。后來,我對于這一思路思考了很長時間,我認為它是具有啟發(fā)性的。但是當時人們不贊成這一思路,他們認為我們需要讓機器人不斷接近實現(xiàn)真的智能,即類人智能。

之后人們嘗試研究專家系統(tǒng)去實現(xiàn)真正的智能,但是都太過表面了。我們對智能的理解是表面的,這就跟我們理解鋼鐵廠怎么運轉(zhuǎn)一樣。我們認為,只要對智能進行解釋,然后將它用邏輯寫下來,之后再設計一臺計算機來對其進行推理就實現(xiàn)了專家系統(tǒng),然而結(jié)果,我們發(fā)現(xiàn)計算機無法實現(xiàn)推理。不過我認為比較有意思的是,當專家系統(tǒng)的研究開始變得不太順利時,我們不僅改變了研究方法,我們還改變了問題。我們似乎沒有更好地方法甚至可以說沒有辦法去解決專家系統(tǒng)的問題。最終我們放棄去解決專家系統(tǒng)的問題,開始轉(zhuǎn)向另一個完全不同的問題。

Lex Fridman:想必當時研究界有很多人會認為不應該放棄專家系統(tǒng)的研究,而您則傾向于將該問題先擱置到一邊?,F(xiàn)在讓我們回到剛剛的話題,專家系統(tǒng)之后的 20 年的發(fā)展。

Leslie Kaelbling:認為專家系統(tǒng)很異常,這個觀點是無可厚非的,這就像有的人認為僅僅做一些表面的符號推理是錯誤的一樣,以及有些人認為醫(yī)生在擁有臨床經(jīng)驗之前不能成為一名真正的醫(yī)生一樣。因此當時存在這個問題的方向?qū)虿粚Φ臓幷?,都是正常的,只不過我們最終還是無法找到解決方法。

Lex Fridman:您剛剛提到,邏輯學和符號系統(tǒng)中你最喜歡的部分,就是它們能夠給以短名稱給大規(guī)模的設置命名。所以這些方面在符號推理中有什么應用嗎,比如說專家系統(tǒng)或符號計算?你認為在 80 和 90 年代,人工智能發(fā)展的最大阻礙是什么?

Leslie Kaelbling:實際上我并不是專家系統(tǒng)的擁護者,不過我對一些符號推理倒是很感興趣。說到人工智能發(fā)展的阻礙,我認為最主要的阻礙是當時人們的想法,大家認為人類能夠有效地將他們的知識轉(zhuǎn)成某種形式的邏輯陳述。

Lex Fridman:這不僅僅要求付出代價和努力,還要人類真正擁有這種能力。

Leslie Kaelbling:是的。雖然我們都算是有遠見的專家,但是完全無法用內(nèi)省的方式來想明白我們?nèi)绾巫龅竭@一點。關于這一點,我認為其實當時每個人都明白:專家系統(tǒng)不是要求人類寫下用來識別水瓶的規(guī)則,而是要寫下用來進行決策的規(guī)則。我認為當時大家都發(fā)現(xiàn)了,所謂的專家能給出的解釋,就像鷹派能夠解釋他們怎樣做事以及為何做事一樣。他們給出的解釋不一定很好。

之后,他們改造了專家系統(tǒng),使其轉(zhuǎn)而依賴于某種感知事物的東西,但是感知的這種東西又回到了我們剛剛提到的:我們無法很好地定義它們。所以從根本上來說,我認為其根本問題就是假設人們可以明確表達他們做決策的方式和原因。

Lex Fridman:所以說,從專家那里轉(zhuǎn)換而來的知識進行編碼后,就變成了機器能夠理解和推理的東西。

Leslie Kaelbling:并不是。這不僅僅需要編碼,還需要讓知識完全脫離專家。我的意思是,將知識編寫到計算機中本來就很難。而我更認為,人們無法將這些知識生成出來。人們可以講一個故事告訴我為什么要做這件事,但我并不確定這樣表達出來的東西能夠為機器所理解。

Lex Fridman:在分層規(guī)劃方面仍然存在符號推理的用武之地,正如您剛才所談到的那樣。所以具體的難點在哪里呢?

Leslie Kaelbling:即便人類不能為機器提供推理過程的描述,這也并不意味著在計算機內(nèi)部不能進行各類風格的推理。這只是兩個正交點(Orthogonal Points)。這樣的話,問題實際上就變成了:應該在計算機內(nèi)部用何種方式進行推理?答案是,我認為計算機內(nèi)部需要針對所面臨的不同問題,使用各種不同的推理方式。

Lex Fridman:我是否可以理解為,這個問題是,人們可以對哪類事物進行符號編碼,從而實現(xiàn)推理?

Leslie Kaelbling:關于符號,我甚至都不喜歡這個術語,因為我不知道它在技術上和形式上到底是什么意思,與此同時,我對抽象深信不疑。抽象是直觀、重要的,因為對于生活中的一切,人不可能從特別細的粒度出發(fā)做出完整的推理。你不可能僅僅基于某張圖像,就做出要讀博士的決策。

所以如果你要推理出要攻讀博士學位,甚至是購買哪些食材來做晚餐,你就必須縮小狀態(tài)空間的大小以及推理的視界。那該怎樣縮小狀態(tài)空間的大小或推理的視界?答案是抽象:空間抽象和時間抽象。

我認為沿著目標軸線的抽象也很有趣,對目標進行抽象和分解可能更像是一個分解的過程,某種程度上我認為這就是大家所謂的符號或離散模型。當你在聊天的時候,你可能會談到房子的面積,而不會談你在某個時間點的姿勢;你會說你在下午做了某件事,而不會說你在兩點五十四分做了某件事情。你這樣做其實是因為這樣能簡化了你的推理問題,以及你沒有足夠的信息去對你在今天下午兩點五十四分的姿勢進行高保真的推理。

我需要重點重申的一點是,所有的這些都不應該淪為教條,認為我們不應該這樣做,不應該那樣做。我可以贊成符號推理,而你也可以支持神經(jīng)網(wǎng)絡。計算機科學最終會告訴我們所有這些問題的正確答案是什么,如果我們夠聰明的話,也可以搞清楚。

Lex Fridman:是的,實際上當你試圖用計算機解決實際問題時,正確答案自然而然就出來了。您剛剛提到抽象這個概念,提到所有的網(wǎng)絡都源自于抽象,存在自動化的方式去形成策略、專家驅(qū)動的方法去構(gòu)建抽象,并且當下人類似乎在抽象構(gòu)建上的表現(xiàn)更好,所以你提到兩點五十四分與下午對比,那我們?nèi)绾螛?gòu)建這樣的分類法呢?現(xiàn)在是否有可能實現(xiàn)諸如抽象此類的自動構(gòu)建?

Leslie Kaelbling:我認為當機器學習發(fā)展得更好時,工程師可以開發(fā)出算法來構(gòu)建出非常出色的抽象。

Lex Fridman:我們不妨先放下抽象的討論,先談談部分可觀察的馬爾可夫決策過程(Partially Observable Markov Decision Processes,POMDPs)。首先想請問一下您,什么是馬爾可夫決策過程?我們世界中有多少事物是可以建模以及具有馬爾可夫決策過程的。比如您從 POMDPs 的角度,怎樣看待早晨做早餐的花費?又怎樣看待 POMDPs?它跟我們的真實世界又是怎樣建立聯(lián)系的?

Leslie Kaelbling:其實這是一個立場問題,立場就是我看待問題所處的位置。我作為一名研究人員或者系統(tǒng)設計者,可以選擇以何種方式對我周圍的世界建立模型,從而了解這個混亂的世界。如果我其將當做這種形式的問題處理,我就可以沿著算法這一類的思路,提出方案來解決問題。當然對這個世界建模并不能代表能解決任何問題,也不是馬爾可夫決策過程。但是我能通過以各種方式建模的來尋找解決方案,一旦我找到正確的建模方式,就能得到一些可以用的算法。

Lex Fridman:您可以通過各種方式為這個世界建模。一些方式會更傾向于接受不確定性,也更容易為世界的不確定性進行建模,而一些方式可能會強行將這個世界變成確定性的。

Leslie Kaelbling:是的。一些模型是不確定性的,但是這個模型并不能表示當前狀態(tài)的不確定性,而是對未來的發(fā)展走勢進行建模。

Lex Fridman:那什么是馬爾可夫決策過程呢?

Leslie Kaelbling:馬爾可夫決策過程,是一個假設我能夠完全了解系統(tǒng)的當前狀態(tài),即掌握系統(tǒng)的所有信息情況下對未來做預測的模型。所以記住歷史發(fā)生的所有事情,與對未來所做預測的好壞并無關聯(lián)。同時,該模型也假設我能夠采取一些行動來改變世界的當前狀態(tài),并且我無法對這些變化進行確定性建模,而只能建立概率模型。這種概率模型對于某些系統(tǒng)來說可能非常有用,不過對于大多數(shù)問題來說都沒什么用。因為對于大多數(shù)問題,你無法只能觀察到它們的部分狀態(tài),并且這些問題都是各不相同的。

Lex Fridman:所以對于馬爾可夫決策過程,我們只能觀察到部分狀態(tài)。所以當你不能觀察到大部分狀態(tài),也不能完整地了解周邊世界的信息時,馬爾可夫決策過程又怎樣處理現(xiàn)實問題呢?

Leslie Kaelbling:現(xiàn)在這個過程的思路依舊是,假設存在我們了解周圍世界的一些信息的情況,我們能夠做出好的預測。雖然我們不知道當前完整的狀態(tài),不過我們可以通過圖像等去觀察、感受,然后根據(jù)觀察到的歷史行為去推斷世界的發(fā)展趨勢,并基于自己無法確定的未來發(fā)展動向,來決定采取什么行動。

Lex Fridman:在不確定的情況下做出規(guī)劃,這個問題是非常困難的。在對世界進行建模來處理現(xiàn)實世界這種特殊系統(tǒng)的不確定性方面,您有著非常豐富的經(jīng)驗。

Leslie Kaelbling:這種最優(yōu)規(guī)劃問題往往是不可判定的,它取決于你進行了怎樣的設置。很多人都表示,我不使用 POMDPs,因為它們難以處理。我個人認為這是一件非?;氖虑?,因為問題之所叫做問題,就是需要你必須去解決的。

而我們 AI 研究者之所以會出現(xiàn),就是因為要解決的問題非常棘手。我們都明白我們正在解決的問題在計算上的難度非常高,我們可能無法為它找到最優(yōu)解。即便我們認為可能無法提出最佳解決方案,但是還是會回到最優(yōu)問題上反復探索,我們能做的就是讓建模、算法不斷、不斷地接近最優(yōu)。

我從來不會說,問題的計算是多么復雜。相反地,這些復雜的問題能夠讓我更清晰地了解我解決問題的方式,然后一步步地執(zhí)行近似操作,最終在一個合理的時間范圍內(nèi)找到可計算的最優(yōu)解。

Lex Fridman:當您在探討最優(yōu)解的時候,當時業(yè)界有多重視追求最優(yōu)解決方案的思想?此外,追求最佳解決方案的思想多年來也一直在變化。

Leslie Kaelbling:這很有趣,從理論上來說,我們實際上有一點方法論危機。我的意思是,我認為理論對于我們現(xiàn)在所做的很多事情都很重要。

現(xiàn)在出現(xiàn)了很多經(jīng)驗豐富的黑客攻擊,他們對此進行訓練并進行編號。我們很難說清這樣好還是不好。如果你關注計算機科學理論,你會發(fā)現(xiàn)在談論了探討一段時間后,每個人都會討論最優(yōu)化解決問題。人們會關注怎樣找到遺憾綁定(Regret Bound)、怎樣執(zhí)行近似、怎樣證明問題的解是近似解,花的時間越多就越接近最終的最優(yōu)解。

我覺的比較有意思的是,對于難度非常高的問題,我們沒有建立一個比較好的「近似解」概念。我個人非常喜歡研究難度很高的問題,希望自己建立某種形式的解決方案的概念,讓我可以判斷這個算法是有一定作用的,讓我知道除了運行它還能用它做點其他什么事情。

Lex Fridman:所以擁有某種概念某種程度上對您有很深的吸引力,同時您可以使用這些概念來更好地看清某些事情,并期待這些事情能夠給您帶來好的結(jié)果。

Leslie Kaelbling:科學這一學科中也有工程學,但我認為二者并不完全相同。我認為我們正在做的工程學取得了跨越式的發(fā)展,它是走在科學前頭的學科。但是它今后如何發(fā)展,大致是怎樣以及為什么工作,沒有人清楚。我們需要將工程問題轉(zhuǎn)化成科學問題,我們需要知道工程學怎樣、為什么工作的原理,比如在曾經(jīng)的一段時間,人們?nèi)绻蛄壕鸵嬲厝ソ?,而現(xiàn)在我們不需要去真正去建橋梁,就能預測這架橋梁建成后會是什么樣。這些都是我們可以應用到學習系統(tǒng)以及機器人中的。

Lex Fridman:您期望從唯物主義的角度來看待人工智能、智能系統(tǒng)以及機器人? MDPs 所涉及的信念空間(Belief Space)和狀態(tài)空間(State Space)有什么區(qū)別?您通過世界的狀態(tài)來進行推理,那信念空間呢?

Leslie Kaelbling:信念空間不是說考慮當前世界的狀態(tài)是什么樣的從而嘗試讓機器人去控制這些狀態(tài),我將它理解為一種世界如何發(fā)展的概率分布,這樣的話控制問題不再是怎樣控制機器人在這個世界穿行的問題,而變成了一個控制信念的問題,即我采取行動不僅僅考慮這個行為對真實世界產(chǎn)生什么影響,還會考慮它對于我自己對世界的理解會產(chǎn)生什么影響。這就可能迫使我提出一個問題:哪些是不會真正改變世界狀態(tài)但會改變我對世界的信念的?我會將這些信息匯集起來作為決策考量的依據(jù)。

Lex Fridman:這是增強智能體對世界的推理和探索能力的很強大的方法。您在面臨什么問題的時候,會考慮用到信念空間,又在什么情況下會僅僅考慮狀態(tài)空間呢?

Leslie Kaelbling:其實大部分問題都是需要刻意收集信息的。在一些問題中,比如說象棋中是不存在不確定性的,但是對于對手來說,可能就會存在不確定性,這樣的話就不存在狀態(tài)的不確定性了。即便一些問題存在不確定性,但是你可以在解決問題的過程中去收集信息。比如,當你乘坐駕駛自動汽車的時候,它并不完全知道它身處何處,但它了解光照時長一直在變化的信息,這個時候你是不需要收集信息的;但是當你自己在道路上駕駛汽車時,你要看看你旁邊以及后方的路況,需要決定在哪邊道路開等等,你需要衡量這些信息的價值,并選擇收集哪些信息以及合理區(qū)分。

同時,在你采取行動前,你還需要考慮自身的不確定性。如果我知道我所站的地方與門框恰好相對,我就能順利穿過門。但是如果我不能確定門所在的位置,最好就不要馬上邁過去,而要先進行評估。

Lex Fridman:你對世界的不確定程度,實際上就是你在形成規(guī)劃過程中需要優(yōu)化的一部分。那您能否描述一下,我們怎樣采用分層規(guī)劃的方式來對這個世界做規(guī)劃?距離機器人真正實現(xiàn)對一些事情做規(guī)劃還有一段很長的道路。

Leslie Kaelbling:推理中使用的分層推理,包括時間分層和空間分層。我們先說一下時間分層。之前的執(zhí)行過程需要進行很長時間,而使用時間分層就能夠抽象地將這個過程劃分為幾個部分。在之前我們也談到過,如果你能夠在狀態(tài)空間中構(gòu)建時間抽象,你就能進行高水平的規(guī)劃,比如說我要前往城鎮(zhèn),然后給車加油,之后我會到這里做一些什么事情等等。你可以推理出這些行為的依賴性和約束性,而不需要進行事無巨細的考量。

在分層規(guī)劃中,我們需要做的就是針對抽象,做出高水平的規(guī)劃。我認為這個過程是非常靈活的,它不需要考量所有的細節(jié)因素,同時我也認為這是非常有趣的一個步驟。我喜歡以機場這一場景為例,比如你可以規(guī)劃前往紐約,之后到達目的機場,然后到達辦公樓,但是你無法提前說出你在機場發(fā)生的事情,這或許是因為你自己懶得想,但更多的還是因為你沒有足夠的信息推理出你在哪個登機口登機,坐在你前面的是誰等等這些事情。

所以,規(guī)劃得太詳細是沒有意義的,但是你必須實現(xiàn)信念上的飛躍,相信你到了那里就能弄清楚所有事情。有人說,我終其一生所學到的就是預測實現(xiàn)某些類型的子目標的難度。我認為這是至關重要的,如果你對于完成這些中間步驟沒有一個模型,你就無法對飛往某個地方做規(guī)劃。

我們現(xiàn)在要討論的一件事就是,就是如何對這些你沒有經(jīng)歷過的情況進行概括,從而進行預測,比如說穿過吉隆坡機場要多長時間。所以,對于這類抽象模型,我真的非常感興趣,一旦我們創(chuàng)建好這些模型,我們就可以用這些模型來做分層推理,我認為這非常重要。

Lex Fridman:就跟您剛剛提到,一旦你出現(xiàn)在機場,你就離目標只剩幾步之遙了。您能解釋一下這個目標的起點是什么嗎?

Leslie Kaelbling: Herb Simon 在人工智能早期就談到過從方法到結(jié)果的正向推理以及從結(jié)果出發(fā)的反向推理。人們直覺上會認為狀態(tài)空間數(shù)量很多,你可以采取的行為也很多。比如說我坐著的時候,想要搜索我前面在哪,我所有能做的事情是什么,其狀態(tài)空間和可采取的行為數(shù)量都是龐大的。

如果你可以在另一個層面上推理,比如確定了希望實現(xiàn)的目標,要知道如何實現(xiàn)這一目標,這樣問題的范圍就更小了。有趣的是,現(xiàn)在 AI 規(guī)劃領域還沒有解決已知的這類問題,并且他們現(xiàn)在傾向于使用的方法還是從方法到結(jié)果的正向推理,目前還沒有什么研究在從結(jié)果出發(fā)的反向推理中做出更好的結(jié)果。這還是我的某種直覺,我還無法立即向你證明這一點。

Lex Fridman:也很榮幸您能跟我們分享您的直覺。您之前是否思考 AI 領域需要借助點哲學的智慧?您認為將人類的一生或生命的某個部分制定成一個規(guī)劃問題有多難?當您從事于機器人研究時,您往往考慮的是物體操作、物體移動任務等,那您打算什么時候走出實驗室,讓機器人出門、做午飯以及追求更加高遠的目標呢?您怎樣看待這個問題?

Leslie Kaelbling:我認為這個想法是錯誤的,事實上人類的一生并不都是規(guī)劃問題。大家可能都覺得將生活的各個部分整合在一起非常重要,但是這些部分在推理、表示以及學方面的風格都是截然不同的。大家都清楚的是,一個人不可能永遠都是這樣的或者那樣的,人類的大腦也并不總是一成不變,所有的事情都是如此,它們的構(gòu)成部分、子架構(gòu)等都不盡相同。所以我個人認為,我們沒理由去憧憬,將會有一個算法能夠真正地完成整個任務。

Lex Fridman:我們現(xiàn)在能做的,還只是針對特定的問題設計出特定的算法。

Leslie Kaelbling:這需要考量問題類型,比如說,某些推理可能需要在圖像空間中進行。我要再次提到的一點事,推理只是一個強化學習問題,它的思路可以是基于模型的,也可以是不基于模型的。人們可能還在談論是否應該學習——我們可以學習策略直接產(chǎn)生行為,也可以學習一個客觀的價值函數(shù),或者學習一個轉(zhuǎn)移模型以及某些能夠告知我們世界動態(tài)信息的東西。比如當我旅游的時候,想象我學到了一個轉(zhuǎn)移模型,將它與規(guī)劃器結(jié)合起來,然后畫出一個圍繞它的盒子,我就可以學到一個策略,而這個策略是以不同的方式儲存的。與其他策略一樣,它也僅僅是一個策略。

而我更傾向于將其視為一種在計算上的時空權(quán)衡。一方面,對于更公開的策略表示,它可能需要占據(jù)更多的空間,但是我可以快速地計算出應該采取的行為;另一方面,使用一個非常緊湊的世界動態(tài)模型加上一個計劃器,我可能只能比較慢地計算出接下來要采取的行為。我認為這一點不存在任何爭議,它只是一個「對于我們來說,哪種計算形式最好」的問題。

比如用代數(shù)操作做某些推理是合適的,但是如果面對的是控制騎獨輪車這樣的任務,它對時間響應的要求很高,但是決策空間也要小很多,在這種時候可能我們就需要不同的表示方式。隨便舉的例子,不一定貼切。 

(本文為上篇,下篇閱讀請前往:http://www.ozgbdpf.cn/news/201904/XAt6Paa6u28uQyvO.html

IJCAI 2019 會議召開之前,特邀報告講者名單將陸續(xù)公布,雷鋒網(wǎng) AI 科技評論作為 IJCAI 2019 的媒體特別合作伙伴,也將陸續(xù)為大家?guī)砀魑惶匮v者的相關報道。屆時,雷鋒網(wǎng) AI 科技評論還將奔赴現(xiàn)場為大家?guī)砭蕡蟮溃凑埰诖?/p>

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

對話 IJCAI 2019 特邀講者 Leslie Kaelbling:與 AI 和機器人結(jié)緣背后的故事(上篇)

分享:
相關文章
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說