0
本文作者: 奕欣 | 2017-01-13 09:50 |
你知道嗎?Reddit 上的 Machine Learning 小組上目前已經(jīng)聚集了 85,613 位關(guān)注者了,而在 2016 年底的時候,@Mandrathax 發(fā)起了一個評選活動,名為「Reddit 機(jī)器學(xué)習(xí)小組的 2016 年度最佳論文大獎」!結(jié)果于今天火熱出爐啦,且和雷鋒網(wǎng)一起來看看他們都是怎么評選出這些論文的吧。
@Mandrathax 在距離 2017 還有三天的時候慷慨激昂地提議:讓我們來用鼠標(biāo)投票,選出你心目中的年度最佳論文吧!
本次論文評選共有九大獎項(xiàng),從比較正經(jīng)的「年度最佳論文」到莫名奇妙的「最佳非機(jī)器學(xué)習(xí)論文」(黑人問號),雷鋒網(wǎng)將在后面的獎項(xiàng)揭曉部分逐一為大家盤點(diǎn)。
獎項(xiàng)提名過程也很簡單,只需要在帖子最后進(jìn)行評論,并附上免費(fèi)(手動微笑)的論文鏈接就可以了?!改憧梢詾槟愕倪x擇自由提供論據(jù),言之成理即可,如果你就是論文的作者,那么謙虛一點(diǎn)地推薦也是可以的?!?/p>
不過,雖然是一個不太嚴(yán)肅的評選,但人家也是有自己節(jié)操的好伐!
比如說:
1. 每次只能在一條評論中提名一篇論文,如果有多篇心水文章,可以分多個評論來提名。
2. 提名一定要附上論文鏈接。比如說如果發(fā)布在 arxiv 上,需要附上 arxiv 的頁面鏈接,而不是論文的 pdf 文件。而且,本著不讓大家破產(chǎn)的原則,不歡迎貼上需要付費(fèi)閱讀的論文鏈接。
3. 只有正規(guī)的研究論文才能參加本次評選哦,什么書呀博客呀,這次就 sorry 啦,畢竟我們這個評選可是非常正 經(jīng) 規(guī)的。
Reddit 上的用戶可以直接在評論板塊把認(rèn)同的提名頂上去。經(jīng)過 12 天激烈(?)的評選,有 100 位熱心讀者提出了他們心目中的最佳獎項(xiàng)。票選結(jié)果原定于 1 月 6-7 日揭曉,不過樓主可能去歐洲喂鴿子了,所以推遲到今天才出結(jié)果。
事不宜遲,趕緊和雷鋒網(wǎng)一起來奇文共賞吧!
評選標(biāo)準(zhǔn):木有!只要這篇論文看完后,你覺得醍醐灌頂、內(nèi)牛滿面、腦海里只有「好贊」兩個字,感覺以前的書都白讀了的,都可以。
獲獎?wù)撐模?a target="_blank" rel=nofollow>《Mastering the Game of Go with Deep Neural Networks and Tree Search》
如果你看不懂英文,其實(shí)用膝蓋想一下就知道是哪篇論文了,沒錯,就是谷歌 DeepMind 團(tuán)隊(duì)解析利用 DNN 與搜索樹算法攻克圍棋問題的詳細(xì)解讀。
當(dāng)然,這一獎項(xiàng)的角逐非常激烈,還有 InfoGAN、Google 機(jī)器翻譯系統(tǒng)等論文也是大熱的候選者。
不過,因?yàn)樘崦?@Bhananana 提交的是 pdf,還是被樓主小小地吐槽了一番。
評選標(biāo)準(zhǔn):雖然博士生帶了個「生」字,不過這里的學(xué)生論文評選只局限于「還在上學(xué)」&「非博士生」,而且該學(xué)生必須是第一作者哦。
獲獎?wù)撐模?a target="_blank" rel=nofollow>《Recurrent Batch Normalization》(遞歸批規(guī)范化)
第一作者名為 Tim Cooijmans,在蒙特利爾大學(xué)機(jī)器學(xué)習(xí)實(shí)驗(yàn)室(MILA)學(xué)習(xí),師從 Aaron Courville。他在論文中嘗試重新將 LSTM 參數(shù)化,并證明這能有助于 RNN 的批規(guī)范化,使得 LSTM 的具有更快的收斂性及更好的通用性。
這篇論文是作者 @cooijmanstim 自己跑來自薦的,他說:
「這是第一篇呈現(xiàn)展示了 RNN 批規(guī)范化的論文,而且在這篇論文提出之前,這個想法也只是存在可能而已。(我是第一作者啦,當(dāng)時只是一個低年級的研究生而已。)」
恭喜恭喜啪啪啪!還沒讀到博士就已經(jīng)有了第一作者的論文,前途不可限量。
評選標(biāo)準(zhǔn):該論文的第一作者來自某個大學(xué)/國立研究所,比如法國的 INRIA(法國國家信息與自動化研究所)。
獲獎?wù)撐模海杖保?/strong>
樓主特別聲明,雖然這個類目沒有論文被提名,但他在其它類目的提名中發(fā)現(xiàn)了一些符合條件的論文,比如雷鋒網(wǎng)曾經(jīng)報道過的 DeepMind 的識別唇語論文《Lip Reading Sentences in the Wild》;還有 MILA 的《Recurrent Batch Normalization》及《Professor Forcing: A New Algorithm for Training Recurrent Networks》等等。
評選標(biāo)準(zhǔn):源于科技公司(或旗下基于私人資助的研究院,比如 openai)的優(yōu)秀論文。
獲獎?wù)撐模?a target="_blank" rel=nofollow>《WaveNet: A Generative Model for Raw Audio》
沒錯又是 DeepMind,它們設(shè)計(jì)了一個原始音頻波形深度生成模型 WaveNet,利用卷積神經(jīng)網(wǎng)絡(luò)所生成的語音聽起來比現(xiàn)存的最優(yōu)文本(語音系統(tǒng))更為自然,將模擬生成的語音與人類聲音的差異降低一半以上。而它們在語音合成領(lǐng)域取得的這一新進(jìn)展計(jì)劃將應(yīng)用于谷歌產(chǎn)品中,這有期提升數(shù)百萬用戶的產(chǎn)品體驗(yàn)。雷鋒網(wǎng)在此前論文發(fā)表之時也做過覆蓋,詳情可以點(diǎn)擊《DeepMind 發(fā)布最新原始音頻波形深度生成模型 WaveNet,將為 TTS 帶來無數(shù)可能》查看。http://www.ozgbdpf.cn/news/201609/ErWGa8fs7yR1zn2L.html
如果說前面的評選還畫風(fēng)比較正常的話,那么接下來的獎項(xiàng)就有點(diǎn)讓人看不懂了……
評選標(biāo)準(zhǔn):數(shù)學(xué)、數(shù)學(xué)、數(shù)學(xué)……停不下來。我在數(shù)學(xué)的海洋里無法自拔!
獲獎?wù)撐模?a target="_blank" rel=nofollow>《Operational calculus on programming spaces and generalized tensor networks》
雷鋒網(wǎng)簡單看了一下這篇 27 頁的論文,除了摘要、介紹及引用的三頁外,其它 24 頁都有各種公式,那畫面太美我不敢看了。
評選標(biāo)準(zhǔn):雖然深度學(xué)習(xí)這么火熱,我們也應(yīng)該稍微尊重一下高斯回歸過程、隨機(jī)森林還有核方法的感受吧!
獲獎?wù)撐模?a target="_blank" rel=nofollow>《Fast and Provably Good Seedings for k-Means》
來來來,給 K-Means 聚類算法讓個位好吧?
評選標(biāo)準(zhǔn):論文并沒有通過 peer review,如果能提供被拒絕的證據(jù)那就更好了(真是好殘忍吶)
獲獎?wù)撐模?a target="_blank" rel=nofollow>《Decoupled Neural Interfaces using Synthetic Gradients》
@sour_losers(雷鋒網(wǎng)按:看這名字起的……)自薦了這篇論文,他說,雖然自己沒有收到拒絕信,但他根據(jù)發(fā)布時間推斷認(rèn)為他被 NIPS 拒絕了。
所以雷鋒網(wǎng)得到一個結(jié)論:起名字呀,還是得起個酷一點(diǎn)的,哦我指的是網(wǎng)名。
評選標(biāo)準(zhǔn):今年內(nèi)還沒發(fā)表出來的論文。樓主 PS:這個獎項(xiàng)可能會和上一個獎項(xiàng)有點(diǎn)重復(fù),但先設(shè)著吧(雷鋒網(wǎng)小編:這些獎設(shè)置得還真是隨便?。?。
獲獎?wù)撐模?a target="_blank" rel=nofollow>《Training recurrent networks to generate hypotheses about how the brain solves hard navigation problems》
(這個類目因?yàn)橹挥羞@一個提名,且只獲得了兩票,因此就順利成章地獲獎了。樓主表示,這證實(shí)了此前的猜測,“我覺得確實(shí)設(shè)重了?!保?/p>
最佳論文標(biāo)題
評選標(biāo)準(zhǔn):只要比這個標(biāo)題厲害就可以了:《A Spectral Approach to Ghost Detection》。
鬼魂識別?我讀書少你可別騙我。你還別說,這論文寫得還有模有樣的,除了建模、識別外,兩位研究人員還設(shè)計(jì)了一個功能,可以自動抹除圖片里的鬼魂。
作者 Daniel Maturana 是一個愛聽雷鬼樂的虔誠天主教徒,而 David Fouhey 則是 CMU 的機(jī)器人研究中心的博士生,他曾經(jīng)擔(dān)任某個機(jī)構(gòu)的聯(lián)合大使,主要任務(wù)是探索瑜伽褲與普通長褲的區(qū)別(什么鬼)。
獲獎?wù)撐模?a target="_blank" rel=nofollow>《Learning to learn by gradient descent by gradient descent》
翻譯過來就是《通過梯度下降學(xué)習(xí)如何學(xué)習(xí)梯度下降》,嗯……我服。
文章由 Google DeepMind、牛津大學(xué)及加拿大先進(jìn)研究院的八位研究者聯(lián)合完成。雖然名字起得像繞口令,但簡介寫得還是比較清晰的,文章主要將算法的調(diào)優(yōu)視為一個能用機(jī)器學(xué)習(xí)完成的過程,綜合了 LSTM、通用性及人工設(shè)計(jì)的對抗網(wǎng)絡(luò)進(jìn)行訓(xùn)練,并將其應(yīng)用于相似的全新任務(wù)中。
有意思的是,這個獎項(xiàng)贏得了最多用戶的關(guān)注,競爭也最為激烈。其它的論文名字還包括:
《星體平面的映射》(這是走錯星球大戰(zhàn)片場了嗎?)
《YOLO9000:更高更快更強(qiáng)》(這是在辦奧運(yùn)會嗎?)
《Mother Fugger:采用本地色塊挖掘歷史手稿》(總是有種奇怪的聯(lián)想)
以上便是 2016 年 Reddit 的 Machine Learning 小組評選的「最佳」九大論文,當(dāng)然,其中主要還是以戲謔及有趣做為評選主題,雷鋒網(wǎng)想,不知道中文版本的論文評選是否有哪些特別的論文能入選呢?歡迎向雷鋒網(wǎng)推薦你心目中符合這幾大獎項(xiàng)的論文吧!
最后附上原帖頁面及評選結(jié)果頁面:
r/MachineLearning's 2016 Best Paper Award
Results from the Best Paper Awards
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。