丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給宗仁
發(fā)送

1

Human-like learning在對話機器人中的魔性運用

本文作者: 宗仁 2016-09-26 20:40 專題:雷峰網(wǎng)公開課
導(dǎo)語:這兩種學習方法更接近生物體,或者說人的學習方式,所以我更愿意稱之為“Human-like Learning”。

對話機器人很多,像Siri,小冰,度秘,Allo都能在你有空的時候跟你貧貧嘴,不過隨著廠家和用戶意識到憑空做出一個高度通用的對話機器人是非常不現(xiàn)實的,對話機器人的姿態(tài)也發(fā)生細微的變化——廠家們試圖從某些垂直領(lǐng)域開始入手深根,并且從純聊天功能發(fā)展到這個對話機器人能為用戶完成什么指定的任務(wù)功能。一下子為“只說不做” 的對話機器人找到了一個新的場景。

不過,這個全新升級的對話機器人,重心移向代替人決策,并幫用戶完成任務(wù)。

它如何聽懂用戶想做什么事情?如何做到聊天過程中都不能達到的Human  like leaering?

然后它如何知道第三方App能完成哪些任務(wù),需要點擊哪里,然后才能與用戶想做的事情對接?

當它的重心變成了為用戶完成任務(wù)時,它的核心技術(shù)要求是什么?

……

Human-like learning在對話機器人中的魔性運用

這些只有具備多年實戰(zhàn)經(jīng)驗才會有的答案,我們邀請到了驀然認知創(chuàng)始人戴帥湘,他家的小驀機器人旨在對話過程中獲取和“揣摩”意圖,最終實現(xiàn)人類決策,幫助任務(wù)執(zhí)行。戴帥湘,前百度主任架構(gòu)師,曾長期擔任百度Query理解方向負責人,是自然語言理解方面的技術(shù)專家,曾榮獲第一個也是迄今為止唯一一個以NLP技術(shù)為核心的百度最高獎。2010年提出“Query改寫模型”給百度搜索引擎技術(shù)帶來了跨時代的飛躍,使得搜索相關(guān)性和廣告收入均大幅提升。該模型比學術(shù)界同類模型《Query Rewriting Using Monolingual Statistical Machine Translation》的提出還要早將近1年。此模型迄今為止仍廣泛應(yīng)用于百度所有搜索產(chǎn)品線。申請了自然語言處理,語義搜索,自動問題求解等領(lǐng)域內(nèi)20多項專利技術(shù)。

▎先介紹一下你們產(chǎn)品中強調(diào)的Human-like learning是什么?

對話模型中的One-shot Learning和RL(增強學習)。

  • One-shot Learning的目的是要從少量樣本中進行訓練,以解決對話系統(tǒng)的“冷啟動”問題;

  • RL是一種無監(jiān)督的學習,它通過試錯的方式來進行學習。針對冷啟動后的對話模型,RL可以幫助系統(tǒng)在和用戶的實際交互中不斷增強對話模型中優(yōu)勢策略,削弱負面策略的影響。實際表現(xiàn)是用戶會覺得系統(tǒng)越來越人性化,或者說個性化。

上述這兩種學習方法更接近生物體,或者說人的學習方式,所以我更愿意稱之為“Human-like Learning”。在對話中,這兩者一個處于流程的最前端,一個處于流程的最后端;一個讓模型可以冷啟動,一個讓模型可以實時優(yōu)化,兩者相得益彰。當然,在自然語言理解中,One-shot Learning還可以用在更多地方,比如語義分析這種需要“表示學習”的任務(wù);任務(wù)決策這種典型的“多任務(wù)學習”場景;還有就是對話場景可移植性問題的處理上,這個地方有點類似大家常聽到的“遷移學習”。

用戶在語音引擎里提問時,直接給一個正確答案,而不是10個搜索結(jié)果的網(wǎng)頁鏈接,關(guān)鍵技術(shù)是什么?

其實這里面涉及很多復(fù)雜的技術(shù),分不同的層次,也包含不同的學科,如語言學,認知科學,邏輯學,自然語言處理,機器學習等,是多種類關(guān)鍵技術(shù)融合交匯的過程。我們暫且可以稱之為自然語言理解。

如果把人腦看做一臺機器,那么自然語言就是一種適合這種機器識別和運算的語義表示,自然語言通過字構(gòu)成詞,詞又構(gòu)成句子,句子進一步構(gòu)成復(fù)雜的篇章,其體現(xiàn)的是一種由簡單組合成復(fù)雜,由有限組合成無限的一個過程。

組合性提供了一種生成新東西的能力,但是其并不保證生成出來的都是好的東西,而因果性則正好提供了這一保證。

所以自然語言理解的核心是要在語言的某個層次上對組合性,以及因果性進行建模。用更通俗的話說,前者對應(yīng)的是語義的表示,后者則是說的知識推理。

語音機器人代替人決策,實現(xiàn)了自動化。這件事有兩個難點:一是聽懂用戶想做什么事情,他說“科比得分最高比賽”的時候,知道他說的是籃球、是視頻、是81分,然后才能通過無形的手替人操作。

這個你們怎么運用One shot learning 技術(shù)解決的?

這其實就是我上面提到的語義理解,我暫時不能透露具體細節(jié),因為這部分是我們一個重要的創(chuàng)新之一,肯定不是業(yè)界和學術(shù)界公開的東西,所以暫時還不能說,但我可以從另外一個側(cè)面說一下基本的思路。

One-shot Learning只是一個概念,一種抽象的思想,甚至還不是一個通用的學習框架。對于語義理解來說,其肯定不是一個如圖像識別或者語音識別一樣典型的模式識別問題,或者說端到端的問題。語義理解是一個推理相關(guān)的問題,要通俗地說其更接近下棋這一類問題。這類問題,顯然無法直接通過一個端到端的框架來進行訓練和學習,而是首先需要針對問題本身進行建模,然后在這個基礎(chǔ)上再尋求合適的學習方法。

舉個很容易理解的例子,我們?nèi)藢W寫字,只要學習寫少量的字,然后再看到一個新的字的時候就能基本順利地寫出來,究其原因可以認為是我們針對寫字這個過程做了某種近似的抽象和建模:就是把寫字當成是有限的特定筆畫+特定的空間排列的一個過程。當我們看到一個從未見過的字的時候,我們就嘗試用這種抽象的方法去“構(gòu)造”一個這樣的字,然后邊對照邊調(diào)整,最后寫出一個最像這個字的字出來。這里面也體現(xiàn)了我上面說的組合性和因果性,只是因果性可能更多地是一種統(tǒng)計關(guān)系。

所以這類問題最關(guān)鍵的地方就是要針對問題本身去建模,把問題抽象出來,逼近問題本質(zhì),不可能有一個現(xiàn)成的通用的框架來搞定。

 接著上面問題:二是知道第三方app都可以完成哪些任務(wù),需要點擊哪里,然后才能與用戶想做的事(語義理解)進行對接。

這個你們用什么應(yīng)用內(nèi)搜索技術(shù)解決的?

【這個問題看起來完全誤解了我們的工作,我們根本不關(guān)注一個app是如何操作的,實際上也無需和具體app對接?!?/p>

再回到問題本質(zhì)這個思想上來,現(xiàn)在的APP的操作是基于鼠標,鍵盤,觸摸屏的輸入方式來設(shè)計的,不管APP做得多么友好或者簡潔,其都受限于這幾種機械的輸入方式,簡單地說,現(xiàn)在的APP不過是這幾種輸入方式的一個組合操作。為什么要把語義理解和這種低級的操作方式對應(yīng)起來呢?完全沒有必要這么做!對話是一種全新的交互方式,也只有對話的交互方式才是最接近人與人之間的交互方式,當然也是人與機器最自然的交互方式。

脫離技術(shù)細節(jié)層面,我們要完成某個任務(wù)或者做某個決策,這個過程本身和輸入方式無關(guān),它就是一個任務(wù)流,可能有一些關(guān)鍵節(jié)點,不同的人都需要遵守,但更多的是其實沒什么規(guī)律,每個人都要自己不同的個性化處理過程。比如“買飛機票”的過程:有人會去網(wǎng)上買,有人會打電話買,有人會去柜臺買;有人很固執(zhí),只要滿足其所有既定條件下的機票;有人猶豫不決,不停地對比,邊詢問邊考慮;更多的人是有一個基本優(yōu)化目標,比如價格要盡量低,或者說時間要盡可能快,然后根據(jù)當前航班情況選擇一個自認為最好的。

我們要做就是在人完成一個任務(wù)的抽象層面,用一種最自然的方式來輔助人決策,以盡快推進任務(wù)的執(zhí)行,這其中最合適的方式顯然就是人與人之間的對話方式。其瞄準的是人完成某個具體任務(wù)的場景,用對話的方式來推進整個任務(wù)的快速進行,并在恰當?shù)臅r候調(diào)用可能的第三方接口,比如展現(xiàn)特定信息,下單等,以使得整個任務(wù)朝著某個目標優(yōu)化下去,比如獲得最符合當前用戶個性化的訂單。這是典型的AI思路,所涉及的技術(shù)也是上面所說的各種復(fù)雜技術(shù)的融合。

當一個語音機器人的重心變成了幫用戶決策,調(diào)動第三方應(yīng)用來快速響應(yīng),它會變成一個重對接技術(shù)和資源的事情。

甚至重運營合作的事情,怎么看這個問題?

【這個問題是不是問我們需要對接很多服務(wù),所以在服務(wù)對接的運營上會比較重?】

我們的確需要對接諸多服務(wù),以在具體的任務(wù)場景中靈活地恰當?shù)卣{(diào)用某種服務(wù)來輔助決策。

但和問題中的理解完全相反,我們可以針對網(wǎng)絡(luò)上不同的服務(wù)接口,全自動地構(gòu)建語義分析和服務(wù)對接程序(拋開具體商業(yè)談判不談,這里只從技術(shù)上考慮,畢竟網(wǎng)絡(luò)上使用越廣泛的服務(wù)就越是免費的),這也正是我們另外一個優(yōu)勢所在。除了我們的語義分析方法可以快速地從一個場景遷移到另外一個場景外,我們針對不同的服務(wù),可以完全自動地構(gòu)建起對應(yīng)的對接程序。更直白地說就是針對一個特定服務(wù)的接口,我們會讓我們的系統(tǒng)自動“寫”一段程序來處理這個服務(wù)下人和服務(wù)之間的對接過程,也就是針對這個服務(wù)接口的對話流程。從程序編寫的角度看,就是我們設(shè)計了一個可以生成特定程序的程序,來代替本來可能需要程序員手工編寫的工作。

調(diào)動第三方App來響應(yīng)任務(wù),范圍很廣,需要深度垂直化才有優(yōu)勢,如何平衡?

基于我們設(shè)計的模型的通用性,理論上,只要我們持續(xù)深入下去,我們就可以做到全場景對話,甚至多語言對話。但是從當前用戶的接受程度,相關(guān)產(chǎn)品的成熟度,還有商業(yè)模式上看,我們更傾向于在車載和家居環(huán)境中突破。也就是說純語音對話的方式現(xiàn)在還只是一種非主流手段,只有當人雙手被占用的情況下,這種方式才會變得有用和有效。但是,隨著語言理解和對話技術(shù)的快速發(fā)展,這一情況正在變得越來越普及,有望在數(shù)年后成為一種主流的人機交互方式。

讀者提問

NLP在人機交互上的應(yīng)用現(xiàn)狀能否介紹一下?在AR/VR場景下能做到怎樣的程度?例如游戲中的NPC能夠像微軟小冰一樣進行復(fù)雜的隨機交流嗎?

首先要說明的是我個人覺得小冰根本沒有什么復(fù)雜的技術(shù),雖然可能用了深度學習,用了句子生成方法。但其核心還是通過大量聊天語料(問答對)訓練一個新問題在當前上下文下最“相關(guān)“的一個已有問題,從技術(shù)上其更近似于檢索的方式,只是選用不同的模型對上下文的描述能力可能不同,效果也有所差異。但總體上,這種對話和“語言理解”無關(guān),也就說和推理沒有半點關(guān)系,還只是一種純統(tǒng)計上的相似度計算而已。所以要問的或許應(yīng)該是:游戲中的NPC可否像真正的游戲玩家一樣和電腦前面的游戲玩家進行自然對話。

其實特定的某個游戲是一個非常細分的場景,我個人覺得這這種受限場景下,人機對話可以做得更接近于人與人之間的對話,但是需要考慮的是游戲中角色很多,不同角色的設(shè)置也不同,需要真正比較通用且能快速實現(xiàn)個性化的對話模型,而且這種模型的冷啟動也需要針對不同角色有所差別。

當前深度學習在NLP方面的使用以及它與傳統(tǒng)方法的區(qū)別與集成,對于從業(yè)者來說應(yīng)該如何選擇?

還是和問題本身相關(guān),如果把問題看做是一個模式識別問題,輸入和輸出都很明確,而且也能夠獲取到大量的訓練樣本(包括用人工可以大量標注的方式),此類問題一般適合用端到端的方法來解決,深度學習是一個很好的選擇。NLP中的序列標注,統(tǒng)計機器翻譯都可用此類方法。如果問題本身就是一個目標并不能明確地用具體標簽描述,而是需要根據(jù)其所處的環(huán)境,做出一系列明確的動作,比如規(guī)劃問題,任務(wù)決策問題等,這類問題暫時還不適合用深度學習來處理,需要深度學習和邏輯相結(jié)合。

關(guān)于“傳統(tǒng)NLP方法”這個說法,我個人有不同的看法。對于NLP技術(shù)來說,其研究的是逼近語言現(xiàn)象本質(zhì)的方法,或者說針對語言建模的方法,最早大家是從邏輯的角度來研究,然后加入了統(tǒng)計和機器學習,語言問題是個足夠大的問題,這些不同流派揭示的只是語言問題的不同側(cè)面而已。如果從應(yīng)用的角度來看,當然合適的方法是要考慮語言問題的各個側(cè)面,融合邏輯,知識和統(tǒng)計的力量才能獲得有效的進步。很多所謂采用NLP技術(shù)的產(chǎn)品大都把眼光停留在文本分類,詞匯標注,甚至分詞這樣的單點任務(wù)上,其實離理解NLP技術(shù)的作用還差得很遠。

用自然語言進行的“交互式搜索”取代傳統(tǒng)搜索形態(tài)的可能性有多大,業(yè)界對此趨勢的應(yīng)對現(xiàn)狀和目前面臨的主要難點是什么?

隨著終端的多樣化,設(shè)備的逐漸微型化,這是個必然的趨勢,我無法給出一個具體的時間預(yù)測,但我相信這一天肯定不會太遠,移動時代的到來就已經(jīng)開始肢解搜索了。當前的搜索引擎不久后將會蛻化成“交互式搜索”后面的一個并不那么重要的服務(wù),就像分類目錄式搜索被現(xiàn)在的搜索引擎取代一樣。

難點還在于自然語言理解,更具體一點說就是機器如何去“理解”人類語言。機器至少要理解人的意圖,并且能支持推理,推理本身必須也是一種計算,然后才能談對話,談交互,否則都是無源之水無本之木。

 自然語言處理技術(shù)在教育領(lǐng)域里值得注目的發(fā)展趨勢有哪些?

教育是一個很大行業(yè)呀,這方面我不專業(yè),所以只能隨便說說。

從我們交互與決策引擎的角度來看的話,機器輔助教育可能是一個很有意思的點,讓機器人幫助完成教育過程中的一些機器更擅長的環(huán)節(jié),比如改卷,不厭其煩地講解基本演算方法,理科類的答疑等。

技術(shù)上我個人比較關(guān)注自動問題求解,自動證明,因為這個和我們的技術(shù)也密切相關(guān),但是這些AI方法和教育產(chǎn)品具體如何結(jié)合,比如輔助答疑,參與考試等,這方面我們還沒有仔細考慮過,但是應(yīng)該是一個非常有趣的方向。

▎ 進行情感分析,用專業(yè)領(lǐng)域詞典和用中科院分詞系統(tǒng),分詞結(jié)果一般哪個精確度會好一點?

情感分析現(xiàn)在還是個分類問題,應(yīng)該考慮更高級的特性,比如句法,甚至語義,而不應(yīng)該停留在詞匯級這樣低級的特征上,換句話說分詞這樣和粒度相關(guān)的基礎(chǔ)特征不應(yīng)該對高層的NLP應(yīng)用有直接的影響,否則從系統(tǒng)擴展性來說就很致命。我覺得如果想要在更高級的層面釋放NLP的威力,就不應(yīng)該在分詞這樣的環(huán)節(jié)上糾結(jié),分詞的效果應(yīng)該對模型最終的效果影響越小越好,甚至于說不依賴于分詞。

Human-like learning在對話機器人中的魔性運用

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

Human-like learning在對話機器人中的魔性運用

分享:
相關(guān)文章

專注AIR(人工智能+機器人)

專注人工智能+機器人報道,經(jīng)驗分享請加微信keatslee8(請注明原因)。 科學的本質(zhì)是:問一個不恰當?shù)膯栴},于是走上了通往恰當答案的路。
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說