丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能 正文
發(fā)私信給蔡博侖
發(fā)送

0

深度:機器如何模仿人類的學習方式?

本文作者: 蔡博侖 2016-09-05 10:50
導語:懶惰是人類社會進步的原動力,單點學習(One-Shot learning)的目標是不勞而獲。

編者注:本文由雷鋒網(wǎng)首發(fā),未經(jīng)許可拒絕轉(zhuǎn)載!

導讀:

古有算盤,今有計算機,人工智能(Artificial Intelligence,AI)始終是人類永恒又美好的夢想。然而,漫漫的歷史長河中人類前仆后繼,雖然計算機技術(shù)已經(jīng)取得了長足的進步,然而仍然沒有一臺機器產(chǎn)生真正的“自我”意識。谷歌大腦認出貓和狗,阿法狗打敗了李世石,智能車拉著我們?nèi)ザ碉L……盡管深度學習(Deep Learning)讓 AI 在近期取得了諸多突破,但人工智能始終還是離不開“人工+智能”,離不開大量的人工標定數(shù)據(jù)去指導智能系統(tǒng)的學習。

ImageNet,COCO,Places,我們?yōu)榱酥悄芏粩嗳斯ぃ瑸榱艘粍谟酪荻粩嗟貥硕〝?shù)據(jù)。然而,這并不是人類的最終夢想——不勞而獲。直到 Science 封面文章 Bayesian Program Learning(BPL,《Human-level concept learning through probabilistic program induction》),像人類一樣學習的人工智能又引爆了人類曾經(jīng)的夢想,Google DeepMind 的新成果 Memory-Augmented Neuaral Networks(MANN,《One-shot Learning with MemoryAugmented Neuaral Networks》)讓夢想又朝現(xiàn)實邁進了一步。  

懶惰是人類社會進步的原動力,單點學習(One-Shot learning)的目標是不勞而獲。不同于傳統(tǒng)機器學習方法需要大量數(shù)據(jù)去學習和反復的訓練,One-Shot 通過單一的訓練樣本去學習并做出準確的預測。然而,One-Shot learning 是一個永恒的挑戰(zhàn)。由于現(xiàn)有的機器學習模型參數(shù)量龐大,小樣本下很難在巨大的搜索空間中找到刻畫本質(zhì)屬性的最優(yōu)解。

因此當遇到新的任務(Task)時,傳統(tǒng)學習算法只能通過新任務的大量樣本低效率地去調(diào)整(finetuning)原有模型,以保證在杜絕錯誤干擾(Catastrophic Interference)的情況下將新信息充分涵括。BPL 從認知科學的角度,基于貝葉斯過程模擬人類學習思路;MANN 從神經(jīng)科學的角度,基于記憶神經(jīng)網(wǎng)絡構(gòu)造仿生學習模型。相比于貝葉斯過程學習(BPL),記憶增強神經(jīng)網(wǎng)絡(MANN)將 One-shot Learning 從應用驅(qū)動型推向數(shù)據(jù)驅(qū)動型,從已有數(shù)據(jù)出發(fā)去主動挖掘One-shot Learning的方法。通過關(guān)注存儲內(nèi)容的外部記憶機制快速吸收新知識,并且僅利用少數(shù)幾個例子就可以從數(shù)據(jù)中做出準確預測。 

一、人的學習—記憶與學習(Memory & Learning)

從神經(jīng)科學的角度來說,學習(Learning)定義為將經(jīng)驗(Experience)編碼進記憶(Memory)的過程。魚的記憶只有 7 秒,沒有記憶的學習不是智能,魚永遠是只能在水里游的魚。學習形成了不同類型的記憶:形象記憶(以感知過的事物形象為內(nèi)容),情緒記憶(以過去體驗過的情感為內(nèi)容),邏輯記憶(是以概念命題為內(nèi)容),動作記憶(以操作性行為為內(nèi)容)……記憶指導學習,學習增強記憶。人類從刀耕火種,嬰兒從呱呱落地,“學習→ 記憶→學習”貫穿著社會與個體。對于社會,古書典籍讓經(jīng)驗得到記憶;對于個體,大腦皮層讓知識得到記憶。           

人的學習過程中(如下圖),大腦對外部環(huán)境進行感知,注意機制對感興趣的信息保持關(guān)注;在工作記憶中,新知識在舊知識的基礎(chǔ)上通過檢索被快速建立起來;而后經(jīng)過神經(jīng)元的加工整理,形成難被遺忘的長時記憶。由此,人不斷地從生活經(jīng)驗中建立并整合知識,從而學會處理日益復雜的任務。在持續(xù)不斷的學習過程中,對以往知識檢索利用,使得人們只需要少量的訓練就能快速地學會新的任務。綜上,一個真正的智能系統(tǒng)應具備以下兩方面的作用:

(1)在長時記憶系統(tǒng)中建立一個可檢索的知識庫;

(2)在交互過程中持續(xù)不斷的整合更新知識庫。

深度:機器如何模仿人類的學習方式?

二、MANN——學會學習(Learning to Learn)

埃德加?福爾在《學會生存》中指出:“未來的文盲不再是不認識字的人,而是沒有學會怎樣學習的人 。 ”學會學習(Learning to Learn)不僅僅是教育界面臨的問題,也是機器學習中面臨的問題:未來的智能不再是能干活的機器,而是學會怎樣學習的機器。“學會學習” 中的“學習”即為元學習(Meta-learning)。行為學意義上認為元學習是學習行為本身的改變;信息學意義上認為元學習是關(guān)于獲取知識和經(jīng)驗的學習。人工智能意義上的元學習一般指的是一種遷移學習(Transfer Learning)方案,通過已有的知識輔助新知識的學習,照著葫蘆畫瓢,照著貓畫老虎。可規(guī)模化的元學習方案應滿足以下兩個要求

(1)知識必須以穩(wěn)定且可尋址的方式存儲;

(2)存儲容量不與參數(shù)規(guī)模相關(guān)。  

長短時模型(Long Short Term Model,LSTM)通過隱性的共享記憶結(jié)構(gòu),不完全地實現(xiàn)知識的存儲。直到了神經(jīng)圖靈機(Neuaral Turing Machine,NTM)的出現(xiàn),NTM 引入帶記憶的神經(jīng)網(wǎng)絡去模擬大腦皮質(zhì)的長時記憶功能,實現(xiàn)用極少量新任務的觀測數(shù)據(jù)進行快速學習。不同于傳統(tǒng)神經(jīng)網(wǎng)絡,NTM(如下圖)通過控制器(Controller)對輸入輸出(Input/Output)向量進行選擇性地讀寫(Read&Write Heads)操作,實現(xiàn)與外部記憶矩陣(Memory)進行交互?;趶姺夯芰Φ纳疃壬窠?jīng)網(wǎng)絡架構(gòu),并綜合長時觀測的記憶模型與新觀測的匹配信息對存儲內(nèi)容進行有效地更新。

 深度:機器如何模仿人類的學習方式?

相比于神經(jīng)網(wǎng)絡圖靈機,記憶增強神經(jīng)網(wǎng)絡(MANN)提出了一種新讀寫更新策略——LRUA(Least Recently Used Access)。有別于 NTM 由信息內(nèi)容和存儲位置共同決定存儲器讀寫, MANN 的每次讀寫操作只選擇空閑或最近利用的存儲位置,因此讀寫策略完全由信息內(nèi)容所決定。這種更為靈活的讀寫策略更適用于時序無關(guān)的分類回歸問題。MANN 結(jié)合了更靈活的存儲能力和強泛化的深度架構(gòu),實現(xiàn)知識的更為高效的歸納轉(zhuǎn)移(Inductive transfer)——新知識被靈活的存儲訪問,基于新知識和長期經(jīng)驗對數(shù)據(jù)做出精確的推斷。

三、終極理想——終身學習(Life-long Learning)

活到老學到老,人的一生是學習的一生。終身學習(Life-long Learning)是一種能夠存儲學習過的任務知識,并能利用舊知識快速學習新任務的完整系統(tǒng)方案。相較于傳統(tǒng)機器學習方法,終身學習憑借任務間的知識共享和知識庫的知識積累,突破了學習過程在樣本集和時間上的限制,為實現(xiàn)高效及高度智能化的系統(tǒng)提供可能。 深度:機器如何模仿人類的學習方式?

一個終身學習系統(tǒng)包含以下基本組成部分,各模塊間的相互作用共同實現(xiàn)“活到老學到老”。

(1)知識倉庫(Memory)

記憶是智能的基礎(chǔ),終身學習系統(tǒng)期望充分利用已學過的知識輔助學習。知識倉庫用于存儲學習過程中需要長期存儲的知識。其中可分為基礎(chǔ)知識和抽象知識兩類,分別支持知識從簡單到復雜的縱向遷移,以及相關(guān)任務之間知識的橫向遷移。

(2)任務隊列(Controller)

任務隊列考慮知識的學習順序?qū)ο到y(tǒng)的泛化能力與學習代價的影響。學習順序設置對學習有著重要的影響,因此終身學習系統(tǒng)期望合理設置學習順序以越快越好地進行學習,循序漸進,拋磚引玉。此外,高效的任務隊列也為終身學習系統(tǒng)提供主動學習的可能,系統(tǒng)可以主動優(yōu)先學習對關(guān)鍵任務。

(3)知識遷移(Read)

知識遷移是終身學習系統(tǒng)的基礎(chǔ)。知識遷移從知識倉庫中選擇對新知識目標領(lǐng)域,Target Domain)有幫助的舊知識(源領(lǐng)域,Source Domain)進行遷移。因此要求終身學習系統(tǒng)應具備有效度量并創(chuàng)造正遷移條件的能力,充分利用已經(jīng)學到的任務知識,盡可能高效地學習新任務——遷移什么?如何遷移?何時遷移?

(4)知識整合(Write)

知識整合是終身學習系統(tǒng)中至關(guān)重要的環(huán)節(jié),以保證知識倉庫能得到及時的更新。取其精華,去其糟粕,知識在整合過程中,系統(tǒng)應對知識進行相應的篩選,在兼顧不損害原有知識的前提下,盡可能整合有利于遷移的新知識。

學海無涯,活到老學到老。人工智能之路漫漫,吾將上下而求索。

參考文獻

[1] Santoro A, Bartunov S, Botvinick M, et al. One-shot Learning with Memory-Augmented Neural Networks[J]. arXiv preprint arXiv:1605.06065, 2016.

[2] Lake B M, Salakhutdinov R, Tenenbaum J B. Human-level concept learning through probabilistic program induction[J]. Science, 2015, 350(6266): 1332-1338.

[3] Graves A, Wayne G, Danihelka I. Neural turing machines[J]. arXiv preprint arXiv:1410.5401, 2014.

[4] Ruvolo P, Eaton E. ELLA: An Efficient Lifelong Learning Algorithm[J]. ICML (1), 2013, 28:507-515.

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

深度:機器如何模仿人類的學習方式?

分享:
相關(guān)文章

知情人士

華南理工大學在讀博士研究生。主要研究方向:機器學習,計算機視覺,圖像處理等。(https://caibolun. github.io/ )
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說