0
本文作者: AI研習社 | 2019-09-20 16:25 |
「本周論文推薦精選」是 Paper 研習社推出的全新欄目,展現(xiàn)社友們在研習論文的過程中,推薦自己所閱讀到的優(yōu)秀論文,幫助大家一起學習、討論每個領(lǐng)域最新、最精彩的學術(shù)論文。
①
#卷積 LSTM# #注意力機制##seq2seq模型#
CLVSA:一個基于卷積LSTM和注意力機制的預測金融市場走勢的變分seq2seq模型
推薦理由:1、本文所解決的核心問題:股票市場的預測是金融和計算機相互交叉的一個問題。近年來許多研究人員試圖將深度學習的算法應(yīng)用于金融市場預測中,通過歷史價格信息、公司基本面信息、研究報告文本等輸入數(shù)據(jù),判斷股票、股指期貨的價格走勢。然而由于股票數(shù)量的限制、金融市場中的噪音等原因,在圖像和語音識別領(lǐng)域大顯身手的深度學習模型能否在金融市場上取得同樣的成功還有待人們進一步研究。
2、本文的創(chuàng)新點:在這一篇論文中,作者提出了一個混合模型,將卷積LSTM、注意力機制和seq2seq模型結(jié)合到一起,通過5分鐘時間間隔的原始的價量信息,預測未來30分鐘之后價格是否會上漲還是下跌。在這個混合模型中,基于KL散度的正則化操作被用于減輕過擬合。為了驗證模型的有效性,作者收集了2010年1月至2017年12月期間,4種商品期貨(原油、黃金、天然氣和大豆)和2種股指期貨(標普500和納斯達克100)的歷史價量數(shù)據(jù)。通過滾動預測的模式(3年時間作為訓練集,2周用于驗證和測試,以1周為步長滾動訓練和預測),他們驗證了這個混合模型在評級準確率、年化收益率和夏普率上都優(yōu)于單獨的卷積神經(jīng)網(wǎng)絡(luò),seq2seq模型和LSTM模型。本文涉及到的數(shù)據(jù)來自于期貨交易商,作者沒有放出數(shù)據(jù)。同樣,作者也沒有放出實現(xiàn)模型的代碼。
3、本文的研究意義:通過新模型的提出和驗證,推動了深度學習模型在金融市場預測上的應(yīng)用。
論文鏈接:https://www.ijcai.org/proceedings/2019/0514.pdf
推薦人:琴???思{ (清華大學信息與通信工程,Paper 研習社特約作者)
②
#計算機視覺#
【大連理工/鵬城/香港城市】MirrorNet:我鏡子呢?
推薦理由一:這是一篇大連理工、鵬城實驗室、香港城市大學合作的論文,已被ICCV 2019接收。鏡子的反光一直是計算機視覺中一個令人頭疼的問題,而已有的算法尚未考慮它的影響,也因此經(jīng)常被鏡子中反光的圖像迷惑——畢竟鏡子反射的圖像往往和它的周邊環(huán)境又很接近,要讓神經(jīng)網(wǎng)絡(luò)區(qū)分二者實在是困難。本文則是有史以來第一篇基于計算的方式來處理鏡子語義分割問題的工作。作者首先構(gòu)建了一個大規(guī)模的、涵蓋日常生活各種場景、包含了四千多幅圖像的鏡子分割數(shù)據(jù)庫——MSD,并提出了一個用于鏡子分割的網(wǎng)絡(luò)——MirrorNet。MirrorNet使用了上下文對比特征提取(CCFE)模塊,用于學習鏡子里外上下文的對比,從而分割出各種尺寸的鏡子。實驗表明,使用了CCFE模塊的MirrorNet能夠有效地學習這種上下文對比并在MSD數(shù)據(jù)集上有最佳的分割效果。
推薦人:林肯二百一十三(奈良先端科學技術(shù)大學院大學機器人視覺專業(yè),推薦于 CV 論文討論小組。)
推薦理由二:大連理工、鵬城實驗室和香港城市大學的研究團隊提出了一種從輸入圖像中分割鏡子的新方法。不僅能夠準確識別并分割出場景中的鏡子,還能夠消除由于鏡子反射所導致的對于場景的錯誤理解,并幫助一些計算機視覺任務(wù)(例如深度估計和目標檢測)提升魯棒性。他們說,這是首個解決鏡子分割的方法,經(jīng)過大量的實驗表明,性能表現(xiàn)比最先進的檢測和分割方法都要好。
論文鏈接:https://arxiv.org/pdf/1908.09101.pdf
推薦人:志浩(中國石油大學(華東) 機械工程,ICCV 2019頂會贊助計劃參與者)
③
#深度學習# #卷積網(wǎng)絡(luò)#
ICCV2019 | 修復視頻,不需要進行先驗訓練,外觀和光流足矣!
推薦理由:本論文來自斯坦福大學,為ICCV2019接收論文。文章提出了一種新穎的視頻修復算法,該算法同時產(chǎn)生缺失的外觀(appearance)和運動(光流)信息,這種算法建立在最近提出的“深度圖像先驗”(DIP)之上,DIP則是利用卷積網(wǎng)絡(luò)架構(gòu)在靜態(tài)圖像中強制執(zhí)行合理的紋理。在將DIP擴展到視頻時,本文做出了兩個重要貢獻。首先,作者表明無需先驗訓練即可實現(xiàn)連貫的視頻修復。其次,作者表明這樣的框架可以共同產(chǎn)生外觀和光流,同時利用這些互補的方式可以確保相互一致性。
論文鏈接:https://arxiv.org/abs/1909.07957v1
推薦人:賈偉(清華大學物理學,Paper 研習社首席論文推薦官。)
④
#數(shù)據(jù)挖掘#
圖神經(jīng)網(wǎng)絡(luò)完全綜述,來自Philip S. Yu大佬的鼎力之作
推薦理由:沒得說,這是來自數(shù)據(jù)挖掘領(lǐng)域的巨擘Philip S. Yu老師的大作!質(zhì)量和深度毋庸置疑。 具體就不再展開,下面是摘要的中文翻譯: 近年來,深度學習徹底改變了許多機器學習任務(wù),從圖像分類和視頻處理到語音識別和自然語言理解。這些任務(wù)中的數(shù)據(jù)通常表示在歐幾里德空間中。然而,越來越多的應(yīng)用程序從非歐幾里德域生成數(shù)據(jù),并表示為具有復雜關(guān)系和對象之間相互依賴性的圖。 圖數(shù)據(jù)的復雜性給現(xiàn)有的機器學習算法帶來了重大挑戰(zhàn)。最近,出現(xiàn)了許多關(guān)于擴展圖形數(shù)據(jù)的深度學習方法的研究。在本次調(diào)查中,我們提供了數(shù)據(jù)挖掘和機器學習領(lǐng)域中圖形神經(jīng)網(wǎng)絡(luò)(GNN)的全面概述。我們提出了一種新的分類法,將最先進的圖神經(jīng)網(wǎng)絡(luò)劃分為四類,即循環(huán)圖神經(jīng)網(wǎng)絡(luò),卷積圖神經(jīng)網(wǎng)絡(luò),圖自動編碼器和時空圖神經(jīng)網(wǎng)絡(luò)。我們進一步討論了圖神經(jīng)網(wǎng)絡(luò)在各個領(lǐng)域的應(yīng)用,并總結(jié)了現(xiàn)有算法在不同學習任務(wù)中的開源代碼和基準。最后,我們在這個快速發(fā)展的領(lǐng)域提出了潛在的研究方向。
論文鏈接:https://arxiv.org/abs/1901.00596
推薦人:賈偉(清華大學物理學,Paper 研習社首席論文推薦官。)
⑤
#深度學習##網(wǎng)絡(luò)優(yōu)化# #網(wǎng)絡(luò)訓練#
【三星】AdaptIS:自適應(yīng)實例選擇網(wǎng)絡(luò)
推薦理由:這是Samsung AI Center發(fā)表的一篇全景分割論文,已被ICCV 2019接收。本文提出了自適應(yīng)實例選擇網(wǎng)絡(luò)(Adaptive Instance Selection Network),給定圖像和其中任意像素的坐標,AdaptIS即可精準輸出這個像素處任意物體的mask。與目前流行的先檢測后分割的方法不同,AdaptIS直接從像素點出發(fā),達到對任意類別、任意形狀物體的精準分割。AdaptIS不使用COCO預訓練即可在全景分割數(shù)據(jù)集Cityscapes和Mapillary上達到了state-of-the-art的效果,PQ(Panoptic Quality)指標分別為62.0和35.9,在COCO數(shù)據(jù)集上也有不錯的效果。本文代碼與模型將開源于:https://github.com/saic-vul/adaptis,目前只是占了個坑,實際代碼還未放出。有興趣的童鞋可以關(guān)注一下~
論文鏈接:https://arxiv.org/abs/1909.07829
項目地址:https://github.com/saic-vul/adaptis
推薦人:林肯二百一十三(奈良先端科學技術(shù)大學院大學機器人視覺專業(yè),推薦于 CV 論文討論小組。)
???
除了上述的的五篇精選論文推薦,我們還為你精心準備了可以一鍵下載的論文集:
ACL 歷年最佳論文合集
下載地址:https://www.yanxishe.com/resourceDetail/1009?from=leiphonecolumn
ICCV 2019 | 最新公開的51篇 Oral Paper 合集
下載地址:https://www.yanxishe.com/resourceDetail/1010?from=leiphonecolumn
EMNLP 2019 | 10篇論文實現(xiàn)代碼合集及下載
下載地址:https://www.yanxishe.com/resourceDetail/1013?from=leiphonecolumn
ICCV 1998-2017 年最佳論文合集NeurIPS 2019 GNN 論文合集
下載地址:https://www.yanxishe.com/resourceDetail/1002?from=leiphonecolumn
NeurIPS 2019 GNN 論文合集
下載地址:https://www.yanxishe.com/resourceDetail/1006?from=leiphonecolumn
深度學習中記憶結(jié)構(gòu)的設(shè)計和使用論文集
下載地址:https://www.yanxishe.com/resourceDetail/1005?from=leiphonecolumn
AAAI (1996-2019)歷年最佳論文合集
下載地址:https://www.yanxishe.com/resourceDetail/991?from=leiphonecolumn
快來下載試試吧!
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。