0

桌上的日歷只剩下最后幾頁,一年又這樣步入了尾聲。在這特殊的一年,我們經(jīng)歷了太多太多,這些好事壞事終將成為過往。譯站都更新了哪些關于 AI 的有趣文章呢?
在此之際,為大家奉上 2020 年度譯文榜單:
3. Twitter團隊最新研究:快速高效的可擴展圖神經(jīng)網(wǎng)絡SIGN
5. 重磅 | 對比了2000臺筆電后,Towards AI 選出了最適合搞機器學習、數(shù)據(jù)科學和深度學習的筆記本電腦!
8. 告別RNN,迎接TCN
10. 最強通用棋類AI,AlphaZero強化學習算法解讀
11. 強化學習算法DeepCube,機器自行解決復雜魔方問題
12. 2020 年 4 個最值得推薦的 VS Code 插件
14. 微型機器學習:下一次AI革命
15. 深度學習未來發(fā)展的三種學習范式:混合學習、成分學習和簡化學習

譯者:季一帆、Champagne Jin
內(nèi)容摘要:ECCV 2020 堪稱“史上最難ECCV”,有效投稿5025,一共有1361篇論文入選,錄取率僅為27%。其中 Oral 104篇,Spotlight 161篇,Poster 1096篇。 包括了曾引起廣泛影響的Facebook新式目標檢測算法 End-to-End Object Detection with Transformers (DETR )為Oral。為了讓讀者可以從中了解會議總體趨勢。因此,本文會對這次會議進行概括,并列出一些作者自己覺得有趣、重要的論文。

內(nèi)容摘要:今年的國際自然語言處理領域頂級學術(shù)會議“國際計算語言學協(xié)會年會”(ACL 2020)共收到 3429 篇投稿論文,投稿數(shù)量創(chuàng)下新高。論文有從基礎任務到高級任務發(fā)展的趨勢,收到交稿量最多的方向分別是通過機器學習處理自然語言,對話和交互系統(tǒng),機器翻譯,信息提取和自然語言處理的應用及生成。作者將根據(jù)本次參與會議的心得體會,在本文中討論行業(yè)總體趨勢。
3. Twitter團隊最新研究:快速高效的可擴展圖神經(jīng)網(wǎng)絡SIGN

內(nèi)容摘要:迄今為止,阻礙圖神經(jīng)網(wǎng)絡在行業(yè)應用中被廣泛采用的挑戰(zhàn)之一是難以將其縮放到大型圖(例如Twitter跟隨圖)。 節(jié)點之間的相互依賴性使損失函數(shù)分解成單個節(jié)點的貢獻具有挑戰(zhàn)性。 在這篇文章中,我們描述了Twitter開發(fā)的一種簡單的圖神經(jīng)網(wǎng)絡架構(gòu),該架構(gòu)可以處理大量的圖。

譯者:季一帆
內(nèi)容摘要:機器學習和深度學習是建立在數(shù)學概念之上的,掌握理解數(shù)學知識對于算法構(gòu)建和數(shù)據(jù)處理有極大幫助。線性代數(shù)的研究包括向量及其操作。在機器學習中,各處可見線性代數(shù)的背影,如線性回歸,獨熱編碼,主成分分析PCA,推薦系統(tǒng)中的矩陣分解。深度學習更甚,其完全基于線性代數(shù)和微積分。梯度下降,隨機梯度下降等優(yōu)化方法也建立在此之上。
5. 重磅 | 對比了2000臺筆電后,Towards AI 選出了最適合搞機器學習、數(shù)據(jù)科學和深度學習的筆記本電腦!

內(nèi)容摘要:過去一年中,Towards AI的編輯團隊研究了2,000多臺筆記本電腦,并選擇了他們認為適合機器學習,數(shù)據(jù)科學和深度學習的最佳筆記本電腦。如果您正在尋找好的設備,那么這里是您的正確選擇!

內(nèi)容摘要:GCN是一種卷積神經(jīng)網(wǎng)絡,它可以直接在圖上工作,并利用圖的結(jié)構(gòu)信息。 GCN的基本思路:對于每個子系統(tǒng),我們從它的所有鄰居例程處獲取其特征信息,當然也包括它自身的特征。在本文中,我們先直觀的了解一下它的工作原理,然后再深入了解它背后的數(shù)學原理。

內(nèi)容摘要:你也許通過Coursera在線課程就能獲得某些人工智能領域的知識,但在實際應用中培養(yǎng)對這些概念的深層理解更為重要。本文旨在為四年制人工智能本科學位的學習給出一個完整的課程規(guī)劃。
8. 告別RNN,迎接TCN

內(nèi)容摘要:從TCNs在股票趨勢預測中的應用可以看出,通過結(jié)合新聞事件和知識圖譜,TCNs可以明顯優(yōu)于規(guī)范的RNNs。 循環(huán)神經(jīng)網(wǎng)絡在序列建模中享有的優(yōu)勢可能在很大程度上是歷史發(fā)展遺留的問題。直到近期,在引入諸如擴張卷積和殘余連接等架構(gòu)元素之前,卷積架構(gòu)確實比較薄弱。最近的學術(shù)研究表明,在這些元素的作用下,簡單的卷積架構(gòu)在不同的序列建模任務中比LSTMs等遞歸架構(gòu)更有效。由于TCNs的清晰度和簡單性相當高,卷積網(wǎng)絡應該被視為序列建模的天然起點和強大工具。

內(nèi)容摘要:蒙特卡羅方法是一種使用隨機數(shù)和概率來解決復雜問題的技術(shù),使我們能夠看到?jīng)Q策的所有可能結(jié)果,并評估風險影響,從而在不確定的情況下更好地做出決策。就像任何預測模型一樣 模擬結(jié)果只有我們的估計值才是好的,蒙特卡洛模擬只代表概率而不是確定性。在本文中,我們將通過五個不同的例子來理解蒙特卡羅模擬方法。
10. 最強通用棋類AI,AlphaZero強化學習算法解讀

內(nèi)容摘要:在本篇博文中,你將會了解并實現(xiàn)AlphaZero,一個能夠在雙方零和博弈的棋盤游戲中戰(zhàn)勝世界冠軍的強化學習算法 ,它以絕對的優(yōu)勢戰(zhàn)勝了多名圍棋以及國際象棋冠軍。作者將帶你使用AlphaZero來解決一個益智小游戲(Dots and Boxes)并將其部署成一個純JavaScript構(gòu)建的Web應用。
11. 強化學習算法DeepCube,機器自行解決復雜魔方問題

譯者:季一帆
內(nèi)容摘要:在本文中,作者將詳細介紹將RL應用于組合優(yōu)化領域的最新研究工作。本文對UCI(加利福尼亞大學歐文分校)的研究人員發(fā)表的論文“Solving the Rubik’s Cube Without Human Knowledge”進行解讀。除了論文解讀之外,還使用PyTorch復現(xiàn)論文,通過訓練模型和流程解讀實驗,對論文方法進行改進。
12. 2020 年 4 個最值得推薦的 VS Code 插件

內(nèi)容摘要:使用 VS Code 編寫文檔是種新穎的體驗,但同時也會減慢速度,并使界面混亂。在2020年底,作者卸載了40多個不必要的擴展,留下了這4個最有用的擴展:TabNine、Vim、Spotify 和 Markdown All in One。

譯者:Icarus、
內(nèi)容摘要:GitHub顯然是絕大多數(shù)在線代碼的家園。Python作為一種神奇而又通用的編程語言,已經(jīng)被成千上萬的開發(fā)者用來構(gòu)建各種有趣而有用的項目。在下面的部分,我們將嘗試涵蓋GitHub上一些使用Python構(gòu)建的最佳項目。
14. 微型機器學習:下一次AI革命

譯者:聽風1996
內(nèi)容摘要:雖然GPT-3和Turing-LG取得的成績值得稱贊,當然也自然導致了一些業(yè)內(nèi)人士對人工智能行業(yè)日益增長的碳足跡提出了批評。不過,這也有助于激發(fā)人工智能學界對更加節(jié)能計算的興趣,比如更高效的算法、數(shù)據(jù)表示和計算。微型機器學習(tinyML)是機器學習和嵌入式物聯(lián)網(wǎng)(IoT)設備的交叉領域。該領域是一門新興的工程學科,有可能給許多行業(yè)帶來革命性的變化。
15. 深度學習未來發(fā)展的三種學習范式:混合學習、成分學習和簡化學習
譯者:小哲
內(nèi)容摘要:深度學習是一個很大的領域,其核心是一個神經(jīng)網(wǎng)絡的算法, 神經(jīng)網(wǎng)絡的尺寸由數(shù)百萬甚至數(shù)十億個不斷改變的參數(shù)決定。似乎每隔幾天就有大量的新方法提出。然而,一般來說,現(xiàn)在的深度學習算法可以分為三個基礎的學習范式。每一種學習方法和信念都為提高當前深度學習的能力和范圍提供了巨大的潛力和興趣。

內(nèi)容摘要:問題定義:給定函數(shù)f(x),該函數(shù)計算成本高、甚至可能不是解析表達式,同時假定函數(shù)導數(shù)未知。你的任務:找到函數(shù)得全局最小值。這無疑是一項艱巨的任務,比機器學習中的其他優(yōu)化問題還要困難。但貝葉斯優(yōu)化提供了一個優(yōu)雅的框架可用于來解決上述定義的問題,并且能夠在盡可能少的步驟中找到全局最小值。
AI研習社是AI學術(shù)青年和AI開發(fā)者技術(shù)交流的在線社區(qū)。我們與高校、學術(shù)機構(gòu)和產(chǎn)業(yè)界合作,通過提供學習、實戰(zhàn)和求職服務,為AI學術(shù)青年和開發(fā)者的交流互助和職業(yè)發(fā)展打造一站式平臺,致力成為中國最大的科技創(chuàng)新人才聚集地。
如果,你也是位熱愛分享的AI愛好者。歡迎與譯站一起,學習新知,分享成長。

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。