0
本文作者: 楊曉凡 | 2018-02-15 16:30 |
雷鋒網(wǎng) AI 科技評論按:近日,外媒 Future of Life 對人工智能界知名研究者 Percy Liang 進(jìn)行了采訪,介紹了他對機(jī)器學(xué)習(xí)的一些看法以及研究目標(biāo)。雷鋒網(wǎng) AI 科技評論全文翻譯如下。
2017 年底,美國眾議院通過了《自動駕駛》法案,為自動駕駛汽車的監(jiān)管建起了初步框架。實(shí)際上,在過去的 20 年間,自動駕駛汽車就已經(jīng)在公共道路上進(jìn)行著各種測試,而隨著這項(xiàng)法案的通過,以及自動駕駛技術(shù)安全性的持續(xù)提高,自動駕駛汽車未來也將在我們的日常生活中占據(jù)更多的地位。其他醫(yī)療、法律、安全保護(hù)等領(lǐng)域的各種各樣的無人化技術(shù)也會慢慢普及開來。
為了人類未來可以和自動化的機(jī)器們和諧共處,學(xué)術(shù)研究者、企業(yè)開發(fā)者以及用戶都需要對這些依賴人工智能的技術(shù)有足夠的信心。不只是自動駕駛汽車這樣明顯的案例需要人們的信心,安全保護(hù)設(shè)施以及手機(jī)里的虛擬個人助理,都使用了人工智能,都需要人們的信心。
Percy Liang 是斯坦福大學(xué)計(jì)算機(jī)科學(xué)系的一名助理教授,他介紹道,人類的日常互動總需要一些可預(yù)測性,不管是對于其他的人類,還是對于汽車之類的自動化系統(tǒng)。創(chuàng)造這種可預(yù)測性的方法之一就是通過機(jī)器學(xué)習(xí)。
機(jī)器學(xué)習(xí)領(lǐng)域中,人們基于以往收集的數(shù)據(jù)創(chuàng)建人工智能算法。開發(fā)者并不需要為 AI 明確地編寫代碼告訴它應(yīng)該怎么做、應(yīng)該如何思考,而是由系統(tǒng)自己從數(shù)據(jù)中觀察、學(xué)習(xí)數(shù)據(jù)模式,然后根據(jù)數(shù)據(jù)做出符合數(shù)據(jù)模式的行動。整個過程和「試錯學(xué)習(xí)」有點(diǎn)像。
對于機(jī)器學(xué)習(xí)系統(tǒng)來說,人們在研究和開發(fā)測試中經(jīng)??紤]的一個關(guān)鍵問題是,「為什么系統(tǒng)做出了這個預(yù)測?」對研究和開發(fā)人員們來說,這被稱為「機(jī)器學(xué)習(xí)的可解釋性」。對于這為什么是個重要的研究課題,Percy Liang 舉了個例子說明:「假設(shè)你正在過馬路,一輛車向著你開著過來。對于一般的人類司機(jī),你心里大概能猜到他會怎么做。但是如果開這輛車的是 AI,人類要如何知道它會怎么做呢?」
系統(tǒng)執(zhí)行任務(wù)得到了好的結(jié)果固然重要,但是也許更重要的是能夠用簡單、好理解的話語解釋清楚它為什么那樣做了。即便系統(tǒng)并不是很準(zhǔn)確,它也需要能夠被解釋、被預(yù)測。為了能夠安全地大規(guī)模部署 AI,這些自動化系統(tǒng)必須是基于廣為理解的、實(shí)際的、經(jīng)得起測試的基本假設(shè)和原理才行。
目前開發(fā) AI 的理論指導(dǎo)都是讓 AI 能夠符合訓(xùn)練數(shù)據(jù)中可觀測的輸出。然而在 Percy Liang 看來,這可能會導(dǎo)致「自動駕駛系統(tǒng)能在驗(yàn)證測試中發(fā)揮出良好表現(xiàn),但是并不理解在人類想要的輸出背后的人類價值判斷。」
進(jìn)行許多的測試當(dāng)然很重要。根據(jù) Percy Liang 介紹,這種種模擬測試方法「都是很好的 debug 技巧,我們可以借助它們更輕松地進(jìn)行控制變量測試,而且也可以幫助我們更快地迭代系統(tǒng)?!?/p>
不過,要真正地知道某種技術(shù)是否有效,「必須在真實(shí)環(huán)境中測試,沒有什么討巧的方法,」Percy Liang 說,「對語言、視覺、機(jī)器人技術(shù)來說都是這樣」。一輛自動駕駛汽車很有可能可以在所有測試環(huán)境中都表現(xiàn)良好,但是我們沒有什么辦法可以準(zhǔn)確預(yù)測它在無法預(yù)知的自然災(zāi)害面前會做出什么。
許多領(lǐng)域中,能取得最好表現(xiàn)的系統(tǒng)都是基于深度神經(jīng)網(wǎng)絡(luò)的,比如識別圖像和生成語音中深度神經(jīng)網(wǎng)絡(luò)都已經(jīng)稱為了默認(rèn)的方法,而這些方法當(dāng)然也都是很復(fù)雜的。同時它們也被稱為「黑盒系統(tǒng)」,因?yàn)榫退憬忉屜到y(tǒng)的行為有那么一些可性能,實(shí)際解釋起來也非常難。
Percy Liang 和他的團(tuán)隊(duì)也在研究如何解釋這些模型,他們在嘗試研究某個具體的訓(xùn)練場景是如何對模型的預(yù)測產(chǎn)生影響的。
從這個視角觀察模型已經(jīng)變得越來越重要,因?yàn)?AI 在做的任務(wù)也越來越復(fù)雜,比如對于 AI 醫(yī)療給出的診斷結(jié)果,如何理解、如何解釋是真的「生死攸關(guān)」。「如果訓(xùn)練數(shù)據(jù)中有不符合的,或者對抗性生成的數(shù)據(jù),這就會影響到模型(損害模型),后果就是接下來針對新的輸入做出的預(yù)測可能是錯誤的。我們正在研究的影響函數(shù)(influence functions)可以讓我們準(zhǔn)確地追蹤訓(xùn)練數(shù)據(jù)中的單個點(diǎn)是如何對某個給定的新輸入的預(yù)測產(chǎn)生影響的?!筆ercy Liang 說。
簡單來說,通過理解一個模型是如何做出它自己的那些決定的,Percy Liang 和他的團(tuán)隊(duì)希望可以改進(jìn)模型運(yùn)作的方式、找到新的科學(xué)技術(shù),并且給最終用戶提供一些解釋,讓他們明白會對他們造成影響的行為是如何做出的。
Percy Liang 的研究的另一個目的是確保 AI 能夠理解自己的限制,而且能夠和人類溝通自己的限制。傳統(tǒng)上,測試 AI 系統(tǒng)的重要指標(biāo)之一是平均準(zhǔn)確率,但 Percy Liang 認(rèn)為「對于 AI 的安全問題來說,這并不是一個多么好的討論方式。畢竟,對于一個可靠性是 80% 的系統(tǒng),人類到底應(yīng)該怎么做呢?」
Percy Liang 其實(shí)也沒打算追尋一個任何時候都能給出 100% 正確率的答案的系統(tǒng)。相比之下,他更希望的是,當(dāng)系統(tǒng)對自己的答案不確定的時候,它能夠明確表示出來。如果用戶問系統(tǒng):「我需要吃多少止疼藥?」相比給出一個可能造成危險的不準(zhǔn)確的預(yù)測,系統(tǒng)直接回答「我不知道」可能會更好一點(diǎn)。
Percy Liang 和團(tuán)隊(duì)針對這個問題提出的方法是嘗試沿著模型的學(xué)習(xí)算法追蹤模型的預(yù)測,一直反向追蹤到模型參數(shù)產(chǎn)生的源頭。他們希望這種方法——從訓(xùn)練數(shù)據(jù)的視角審視模型——可以成為開發(fā)、理解、診斷機(jī)器學(xué)習(xí)的標(biāo)準(zhǔn)方法的一部分。他解釋道,這種方法可以聯(lián)系到許多種不同的應(yīng)用中,醫(yī)學(xué)、計(jì)算機(jī)科學(xué)、自然語言理解系統(tǒng),以及各種各樣的商業(yè)數(shù)據(jù)分析應(yīng)用。
「我覺得」,Percy Liang 總結(jié)說,「大家對于模擬測試起到的作用有一些混淆,有的人會完全回避模擬測試,而有的人卻很喜歡在模擬測試中做完一切。也許我們需要改變整個研究文化,兩種做法其實(shí)需要共存?!?/p>
正如采訪中透露出的,Percy Liang 和他的團(tuán)隊(duì)希望給新一代的機(jī)器學(xué)習(xí)算法設(shè)置一個新的框架,讓它們可以更可靠、更優(yōu)雅地運(yùn)行,當(dāng)然也要帶來更少的風(fēng)險。
via futureoflife.org,雷鋒網(wǎng) AI 科技評論編譯
相關(guān)文章:
先打草稿可以生成更高質(zhì)量的文本,Percy Liang新論文廣受贊譽(yù)
EMNLP 2017上,Percy Liang 有哪三篇論文被收錄?
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。