丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
業(yè)界 正文
發(fā)私信給貝爽
發(fā)送

0

LeCun又火了!93年演示首個文本識別CNN視頻沖上Reddit熱榜

本文作者: 貝爽 2021-01-11 18:18
導(dǎo)語:向他們致敬!

提到卷積神經(jīng)網(wǎng)絡(luò)大家可能并不陌生。

它是深度學(xué)習(xí)(Deep Learning)的經(jīng)典算法之一,自20世紀(jì)90年代以來,其在計算機視覺、自然語言處理領(lǐng)域不斷取得驚人的結(jié)果。

卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)首次被用于文本識別演示是在1993年的貝爾實驗室(AT&T Bell Laboratories),其的演示者是有“CNN之父”之稱的Yann LeCun。

今天,LeCun在當(dāng)年的演示視頻再次被網(wǎng)友們挖出,并迅速登上了Reddit熱搜,收獲了近千人點贊。

LeCun又火了!93年演示首個文本識別CNN視頻沖上Reddit熱榜

有網(wǎng)友評論稱,在演示之前,像通用人工智能(AGI)和其他難題一樣,這種文本識別被認(rèn)為是不可能的完成的。

LeCun又火了!93年演示首個文本識別CNN視頻沖上Reddit熱榜

還有不少網(wǎng)友留言稱,他們是真正的工程師、向他們致敬!

LeCun又火了!93年演示首個文本識別CNN視頻沖上Reddit熱榜LeCun又火了!93年演示首個文本識別CNN視頻沖上Reddit熱榜

據(jù)悉,這則視頻展示了世界上首個用于文本識別的卷積神經(jīng)網(wǎng)絡(luò),是之后CNN被廣泛應(yīng)用于計算機視覺、自然語言處理領(lǐng)域的重要開端。

CNN:手寫數(shù)字識別任務(wù)

20世紀(jì)90年代初,LeCun加入了當(dāng)時世界上最負(fù)盛名的研究機構(gòu)之一貝爾實驗室。彼時才32歲的他,與同事們創(chuàng)建了一個讀取并識別手寫數(shù)字的系統(tǒng),該系統(tǒng)是一個典型的端到端圖像識別系統(tǒng)。

LeCun又火了!93年演示首個文本識別CNN視頻沖上Reddit熱榜

演示視頻中,系統(tǒng)快速且精準(zhǔn)地識別出了手寫數(shù)字210-949-4038。據(jù)說,這是LeCun在貝爾實驗室的電話號碼。

另外,它在處理更密集更多樣的數(shù)字識別任務(wù)時也表現(xiàn)出了良好性能,這在90年代是非常難能可貴的。

LeCun又火了!93年演示首個文本識別CNN視頻沖上Reddit熱榜

LeCun又火了!93年演示首個文本識別CNN視頻沖上Reddit熱榜

視頻中,參與這項實驗的研究人員還有實驗室負(fù)責(zé)人Rich Howard、和計算機專家Donnie Henderson。

LeCun又火了!93年演示首個文本識別CNN視頻沖上Reddit熱榜

據(jù)了解,這項代碼開發(fā)主要是為了應(yīng)用于NCR(National Cash Register Coporation)的支票讀取系統(tǒng)。

總體而言,由于數(shù)值計算能力有限、學(xué)習(xí)樣本不足,加上同一時期以支持向量機(Support Vector Machine, SVM)為代表的核學(xué)習(xí)(kernel learning)方法的興起,這一時期為各類圖像處理問題設(shè)計的卷積神經(jīng)網(wǎng)絡(luò)還停留在實驗室研究階段。

不過,到了1998年,Yann LeCun及其合作者共同構(gòu)建了更加完備的卷積神經(jīng)網(wǎng)絡(luò)LeNet-5,并在手寫數(shù)字的識別問題中取得了進一步的成功。截止90 年代末期,該系統(tǒng)已經(jīng)處理了美國 10%-20%的支票識別。

其實,LeNet-5神經(jīng)網(wǎng)絡(luò)早在1989年已經(jīng)被LeCun提出。LeNet的最初版本包含兩個卷積層,2個全連接層,共計6萬個學(xué)習(xí)參數(shù),規(guī)模遠超TDNN和SIANN,且在結(jié)構(gòu)上與現(xiàn)代的卷積神經(jīng)網(wǎng)絡(luò)十分接近 。

值得一提的是,LeCun 在1989年發(fā)表的《使用反向傳播和神經(jīng)網(wǎng)絡(luò)識別手寫數(shù)字》的論文中,在論述其網(wǎng)絡(luò)結(jié)構(gòu)時首次使用了“卷積”一詞,“卷積神經(jīng)網(wǎng)絡(luò)”由此誕生,之后LeCun便被業(yè)內(nèi)稱為“CNN之父”。

MNIST數(shù)據(jù)集

基于這項實驗,LeCun還創(chuàng)建了經(jīng)典手寫數(shù)據(jù)集MNIST,它是用于研究機器學(xué)習(xí)、模式識別等任務(wù)的高質(zhì)量數(shù)據(jù)庫,被Hinton稱為“機器學(xué)習(xí)界的果蠅”。

LeCun又火了!93年演示首個文本識別CNN視頻沖上Reddit熱榜

MNIST 手寫數(shù)字圖像數(shù)據(jù)集作為機器學(xué)習(xí)基準(zhǔn)已經(jīng)使用了二十余年。它包含訓(xùn)練集和測試集,訓(xùn)練集包含 60000 個樣本,測試集包含 10000 個樣本,每個樣本都是一張28 * 28像素的灰度手寫數(shù)字圖片。

LeCun又火了!93年演示首個文本識別CNN視頻沖上Reddit熱榜

MNIST數(shù)據(jù)集包含各種(0~9)手寫數(shù)字


據(jù)悉,MNIST 數(shù)據(jù)集抽取自 NIST 數(shù)據(jù)庫。其中的訓(xùn)練數(shù)據(jù)來自2000 名人口普查局雇員的手寫字符,測試數(shù)據(jù)來自500名在校生的手寫字符。由于測試集樣本較少,MNIST很難再提供有意義的置信區(qū)間。2019年6月,來自 Facebook 和紐約大學(xué)的研究者對該數(shù)據(jù)集進行了擴展和重建,在測試集中新增了50000 個樣本。對此,LeCun在推特上轉(zhuǎn)發(fā)稱,這個新數(shù)據(jù)集重生、恢復(fù)、擴展了MNIST。

目前該數(shù)據(jù)集包括以下四個文件內(nèi)容:

LeCun又火了!93年演示首個文本識別CNN視頻沖上Reddit熱榜

手寫數(shù)字識別是計算機視覺領(lǐng)域的一個基本項目,相當(dāng)于傳說中機器學(xué)習(xí)入門的“Hello World”,因此MNIST數(shù)據(jù)集也被開發(fā)者廣泛使用。

深度學(xué)習(xí)之父Yan LeCun

自1998年之后,LeCun一直深耕于深度學(xué)習(xí)領(lǐng)域,還發(fā)表了多項重要論文,如OverFeat檢測框架、CNN用于立體匹配、DropConnect方法等,總引用量超過了100000+。

2015年,他與蒙特利爾大學(xué)教授Yoshua Bengio、谷歌副總裁兼工程研究員Geoffrey Hinton合著發(fā)表了《深度學(xué)習(xí)》的綜述論文,并登上了Nature。

LeCun是CNN的重要推動者。2018年,Yann因“將反向傳播算法引入了CNN(卷積神經(jīng)網(wǎng)絡(luò)),并且發(fā)明了權(quán)值共享、池化等技巧,讓CNN真正更為可用”還獲得了ACM(Association for ComputingMachinery, 國際計算機協(xié)會)頒發(fā)的2018圖靈獎。

LeCun又火了!93年演示首個文本識別CNN視頻沖上Reddit熱榜

在宣布獲獎?wù)邥r,ACM學(xué)會稱三位計算機科學(xué)家為“深度學(xué)習(xí)革命之父”,并指出,“三位科學(xué)家在概念和工程學(xué)方面取得的突破,讓深度神經(jīng)網(wǎng)絡(luò)成為計算的關(guān)鍵部分”。

圖靈獎有“計算機界的諾貝爾獎”之稱,由英國數(shù)學(xué)家艾倫·圖靈名字而來——因其發(fā)明了最早的人造計算機模型“圖靈機”。與之共同獲獎的還有Yoshua Bengio、Geoffrey Hinton。

值得一提的是,Hinton還是LeCun在多倫多大學(xué)讀博期間師的導(dǎo)師。Hinton主要研究使用神經(jīng)網(wǎng)絡(luò)進行機器學(xué)習(xí)、記憶、感知和符號處理的方法。當(dāng)時的深度神經(jīng)網(wǎng)絡(luò)學(xué)科是個大冷門,LeCun對神經(jīng)網(wǎng)絡(luò)的研究受到了Hinton的不少的指導(dǎo)和幫助。

除此之外,LeCun還曾獲得IEEE神經(jīng)網(wǎng)絡(luò)先驅(qū)獎(2014)、IEEE PAMI杰出研究員獎(2015)。目前他是紐約大學(xué)數(shù)據(jù)科學(xué)中心創(chuàng)辦主任、Facebook副總裁兼首席人工智能科學(xué)家。

在2020 AAAI 協(xié)會上,LeCun針對AI的未來發(fā)表了名為《Self-Supervised Learning》的主題演講,他認(rèn)為深度學(xué)習(xí)已至瓶頸,而自監(jiān)督學(xué)習(xí)才是AI的光明前景。他說,雖然在自動駕駛、語言翻譯、聊天機器人等方面,深度學(xué)習(xí)方法有著一席之地,但是卻無法創(chuàng)作出「真正的」人工智能。

而自監(jiān)督學(xué)習(xí)因為能更接近人類的學(xué)習(xí)程序,將會是未來的發(fā)展趨勢。

引用鏈接:

https://www.reddit.com/r/MachineLearning/comments/kuc6tz/d_a_demo_from_1993_of_32yearold_yann_lecun/

https://youtu.be/uXt8qF2Zzfo

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)


雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

分享:
相關(guān)文章
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說