0
本文作者: AI研習(xí)社 | 2019-12-31 15:17 |
Hi 歡迎來到Paper 研習(xí)社每日精選欄目,Paper 研習(xí)社(paper.yanxishe.com)每天都為你精選關(guān)于人工智能的前沿學(xué)術(shù)論文供你參考,以下是今日的精選內(nèi)容——
Neural Module Networks for Reasoning over Text
Scale Match for Tiny Person Detection
Combining Fact Extraction and Verification with Neural Semantic Matching Networks
Combining Deep Learning and Verification for Precise Object Instance Detection
Evaluating Usage of Images for App Classification
DADA: A Large-scale Benchmark and Model for Driver Attention Prediction in Accidental Scenarios
Unsupervised Adversarial Image Inpainting
Learning by Cheating
CutMix: Regularization Strategy to Train Strong Classifiers with Localizable Features
Mining and Summarizing Customer Reviews
Neural Module Networks for Reasoning over Text
作者:Gupta Nitish /Lin Kevin /Roth Dan /Singh Sameer /Gardner Matt
發(fā)表時間:2019/12/10
論文鏈接:https://paper.yanxishe.com/review/7907
推薦理由:針對文本進行推理的多個步驟的構(gòu)想問題回答問題是具有挑戰(zhàn)性的,特別是當(dāng)它們涉及離散的象征性操作時。神經(jīng)模塊網(wǎng)絡(luò)(NMN)學(xué)習(xí)解析諸如由可學(xué)習(xí)模塊組成的可執(zhí)行程序之類的問題,它們在合成的視覺質(zhì)量檢查域中表現(xiàn)良好。但是,作者發(fā)現(xiàn)在開放域文本中針對非綜合性問題學(xué)習(xí)這些模型非常困難,因為模型需要處理自然語言的多樣性并進行更廣泛的推理。
作者通過以下方式擴展NMN:(a)引入對一段文本進行推理的模塊,以概率和可微分的方式對數(shù)字和日期執(zhí)行符號推理(例如算術(shù),排序,計數(shù));(b)提出無監(jiān)督的輔助損失,以幫助提取與文本中的事件相關(guān)的論點。此外,作者顯示出有限的試探性獲得的問題程序和中間模塊輸出監(jiān)督為準(zhǔn)確學(xué)習(xí)提供了足夠的歸納偏差。
成果:作者提出的模型大大優(yōu)于DROP數(shù)據(jù)集的子集上的最新模型,后者構(gòu)成了其模塊所涵蓋的各種推理挑戰(zhàn)。
論文名稱:Scale Match for Tiny Person Detection
作者:Yu Xuehui /Gong Yuqi /Jiang Nan /Ye Qixiang /Han Zhenjun
發(fā)表時間:2019/12/23
論文鏈接:https://paper.yanxishe.com/review/7893
推薦理由:這篇論文要解決的是微小人物檢測的問題。
隨著深度卷積網(wǎng)絡(luò)的發(fā)展,可視化對象檢測已經(jīng)取得了廣泛的進步。然而,在大尺度圖像中檢測微小的目標(biāo)(例如小于20像素的人)仍然沒有受到充分重視。極端小的物體給特征表示帶來大麻煩,更何況復(fù)雜的背景又加大了困難。這篇論文的貢獻在于提出了一個新基準(zhǔn)TinyPerson,用于長程與大背景下的微型物體檢測任務(wù)。通過實驗發(fā)現(xiàn),用于網(wǎng)絡(luò)預(yù)訓(xùn)練的數(shù)據(jù)集和用于檢測器學(xué)習(xí)的數(shù)據(jù)集之間的比例失配可能會使特征表示和檢測器惡化。因此這篇論文又提出一種簡單而有效的比例匹配方法,以在兩個數(shù)據(jù)集之間對齊對象比例,從而實現(xiàn)有利的微小對象表示。
這篇論文會公開數(shù)據(jù)集和基準(zhǔn)方法,有利于后續(xù)的研究進行比較和驗證。
Combining Fact Extraction and Verification with Neural Semantic Matching Networks
作者:Yixin Nie / Haonan Chen / Mohit Bansal
發(fā)表時間:2018/12/12
論文鏈接:https://paper.yanxishe.com/review/7868
推薦理由:對錯誤信息的日益關(guān)注刺激了對自動事實檢查的研究。最近發(fā)布的FEVER數(shù)據(jù)集引入了基準(zhǔn)事實驗證任務(wù),其中要求系統(tǒng)使用來自Wikipedia文檔的證據(jù)語句來驗證索賠。在本文中,作者提出了一個由三個同類神經(jīng)語義匹配模型組成的連接系統(tǒng),該模型共同進行文檔檢索,句子選擇和要求驗證,以進行事實提取和驗證。對于證據(jù)檢索(文檔檢索和句子選擇),不像傳統(tǒng)的向量空間IR模型(在某些預(yù)先設(shè)計的術(shù)語向量空間中對查詢和來源進行匹配),假設(shè)沒有中間語言,作者開發(fā)了神經(jīng)模型以從原始文本輸入執(zhí)行深度語義匹配術(shù)語表示,無權(quán)訪問結(jié)構(gòu)化的外部知識庫。作者還顯示了Pageview頻率還可以幫助提高證據(jù)檢索結(jié)果的性能,以后可以使用作者的神經(jīng)語義匹配網(wǎng)絡(luò)進行匹配。為了進行聲明驗證,與以前僅將上游檢索到的證據(jù)和聲明提供給自然語言推理(NLI)模型的方法不同,作者通過為NLI模型提供內(nèi)部語義相關(guān)性評分(因此將其與證據(jù)檢索模塊集成)來進一步增強NLI模型和本體的WordNet功能。在FEVER數(shù)據(jù)集上的實驗表明:(1)作者的神經(jīng)語義匹配方法在所有證據(jù)檢索指標(biāo)上都有顯著優(yōu)勢,勝過流行的TF-IDF和編碼器模型;(2)附加的相關(guān)性評分和WordNet功能通過更好的語義改進了NLI模型(3)通過將所有三個子任務(wù)形式化為相似的語義匹配問題并在所有三個階段進行改進,完整的模型能夠在FEVER測試集上獲得最新的結(jié)果。
Combining Deep Learning and Verification for Precise Object Instance Detection
作者:Ancha Siddharth /Nan Junyu /Held David
發(fā)表時間:2019/12/27
論文鏈接:https://paper.yanxishe.com/review/7928
推薦理由:深度學(xué)習(xí)對象檢測器通常會以很高的置信度返回誤報。盡管它們優(yōu)化了通用檢測性能,例如平均平均精度(mAP),但它們并不是為可靠性而設(shè)計的。對于可靠的檢測系統(tǒng),如果進行了高置信度檢測,作者將希望高度確定確實已檢測到對象。為此,作者開發(fā)了一套驗證測試,建議的檢測必須通過該測試才能被接受。
作者建立了一個理論框架,可以證明在某些假設(shè)下,作者的驗證測試不會接受任何誤報?;诖丝蚣艿慕浦?,作者提出了一種實用的檢測系統(tǒng),該系統(tǒng)可以高精度地驗證基于機器學(xué)習(xí)的對象檢測器的每次檢測是否正確。作者表明,這些測試可以提高基本檢測器的整體精度,并且公認的示例很有可能是正確的。這允許檢測器在高精度狀態(tài)下操作,因此可以作為可靠的實例檢測方法用于機器人感知系統(tǒng)。
Evaluating Usage of Images for App Classification
作者:Singla Kushal /Mukherjee Niloy /Koduvely Hari Manassery /Bose Joy
發(fā)表時間:2019/12/16
論文鏈接:https://paper.yanxishe.com/review/7926
推薦理由:應(yīng)用分類在許多應(yīng)用中很有用,例如將應(yīng)用添加到應(yīng)用商店或基于已安裝的應(yīng)用建立用戶模型。當(dāng)前,有許多現(xiàn)有方法可基于給定分類法基于文本元數(shù)據(jù)對應(yīng)用程序進行分類。但是,基于文本的應(yīng)用程序分類方法可能無法在所有情況下都有效,例如,當(dāng)文本描述使用其他語言,丟失或不足以對應(yīng)用程序進行分類時。在這種情況下,有一種解決方案是利用應(yīng)用圖像來補充文本描述。
在本文中,作者評估了許多方法,其中可以使用應(yīng)用程序圖像對應(yīng)用程序進行分類。在這種方法中,作者使用光學(xué)字符識別(OCR)從圖像中提取文本,然后將其用于補充應(yīng)用程序的文本描述。在另一種方法中,作者使用pic2vec將應(yīng)用程序圖像轉(zhuǎn)換為矢量,然后訓(xùn)練SVM將矢量分類為正確的應(yīng)用程序標(biāo)簽。在另一種方法中,我們使用此http URL(https://www.captionbot.ai/)工具從應(yīng)用程序圖像生成自然語言描述。最后,作者使用一種方法來檢測和標(biāo)記應(yīng)用程序圖像中的對象,并使用投票技術(shù)根據(jù)所有圖像確定應(yīng)用程序的類別。作者比較了基于圖像的技術(shù)的性能,以對數(shù)據(jù)集中的許多應(yīng)用進行分類。
作者使用基于文本的SVM應(yīng)用分類器作為基礎(chǔ),并且在添加應(yīng)用圖像時某些類別的分類精度提高了96%。
DADA: A Large-scale Benchmark and Model for Driver Attention Prediction in Accidental Scenarios
作者:Fang Jianwu /Yan Dingxin /Qiao Jiahuan /Xue Jianru
發(fā)表時間:2019/12/18
論文鏈接:https://paper.yanxishe.com/review/7925
推薦理由:駕駛員注意力預(yù)測最近在交通場景理解中引起了越來越多的關(guān)注,并且在以視覺為中心和類似人的駕駛系統(tǒng)中很容易成為一個基本問題。這項工作與其他嘗試不同,它試圖在同時包含正常,嚴(yán)重和意外情況的意外情況下預(yù)測駕駛員的注意力。但是,由于交通場景多變,事故類別錯綜復(fù)雜且不平衡,因此面臨挑戰(zhàn)。
假設(shè)駕駛員的注意力可以提供碰撞對象的選擇性作用,以協(xié)助駕駛事故檢測或預(yù)測,本文設(shè)計了一種多路徑語義引導(dǎo)的注意力融合網(wǎng)絡(luò)(MSAFNet),該網(wǎng)絡(luò)學(xué)習(xí)時空語義和場景變化。預(yù)測。為了實現(xiàn)這一目標(biāo),提供了包含2000個視頻序列的大型基準(zhǔn)測試(命名為DADA-2000),并通過費力的注釋來吸引駕駛員注意(固定,掃視,聚焦時間),事故對象/間隔以及事故類別,以及全面的評估可提供比最新技術(shù)更出色的性能。據(jù)目前所知,這是針對意外情況下人眼感知探索的首次全面定量研究??赏ㄟ^原文后URL獲得DADA-2000。
Unsupervised Adversarial Image Inpainting
作者:Pajot Arthur /de Bezenac Emmanuel /Gallinari Patrick
發(fā)表時間:2019/12/18
論文鏈接:https://paper.yanxishe.com/review/7924
推薦理由:作者考慮在無人看管的環(huán)境中進行修補,在這種情況下,無法訪問配對或非配對的訓(xùn)練數(shù)據(jù)。唯一的信息是由不完整的觀察和修補過程統(tǒng)計信息提供的。在這種情況下,觀察應(yīng)該引起一些合理的重建,這些重建相當(dāng)于學(xué)習(xí)重建圖像空間上的分布。
作者通過使用條件GAN來建模重構(gòu)過程,該條件GAN對隨機組件具有約束,從而在該組件和生成的輸出之間引入了顯式依賴性。這使作者可以從潛在分量中進行采樣,以生成與觀察相關(guān)的圖像分布。
作者在幾種圖像數(shù)據(jù)集上證明了其模型的能力:面孔(CelebA),食物圖像(Recipe-1M)和具有不同類型的插補蒙版的臥室(LSUN臥室)。該方法產(chǎn)生的性能可與經(jīng)過額外監(jiān)督訓(xùn)練的模型變體相比。
Learning by Cheating
作者:Chen Dian /Zhou Brady /Koltun Vladlen /Kr?henbühl Philipp
發(fā)表時間:2019/12/27
論文鏈接:https://paper.yanxishe.com/review/7919
推薦理由:基于視覺的城市駕駛很難。自治系統(tǒng)需要學(xué)習(xí)感知世界并在其中行事。我們表明,可以通過將其分解為兩個階段來簡化此具有挑戰(zhàn)性的學(xué)習(xí)問題。
作者首先訓(xùn)練可以訪問特權(quán)信息的代理。該特權(quán)代理通過觀察環(huán)境的真實布局和所有交通參與者的位置來作弊。在第二階段,特權(quán)代理充當(dāng)訓(xùn)練純基于視覺的感覺運動代理的老師。生成的感覺運動代理無法訪問任何特權(quán)信息,也不會作弊。這種分兩個階段的培訓(xùn)程序最初是違反直覺的,但是具有許多重要的優(yōu)點,作者將通過分析和經(jīng)驗證明。
作者使用其提出的方法來訓(xùn)練基于視覺的自動駕駛系統(tǒng),該系統(tǒng)在CARLA基準(zhǔn)和最近的NoCrash基準(zhǔn)上明顯優(yōu)于最新技術(shù)。該方法首次在原始CARLA基準(zhǔn)中實現(xiàn)了所有任務(wù)的100%成功率,在NoCrash基準(zhǔn)上創(chuàng)下了新記錄,并且與現(xiàn)有技術(shù)水平相比,將違規(guī)頻率降低了一個數(shù)量級。有關(guān)概述這項工作的視頻,請參見以下 URL(https://www.youtube.com/watch?v=u9ZCxxD-UUw&feature=youtu.be)。
CutMix: Regularization Strategy to Train Strong Classifiers with Localizable Features
作者:Yun Sangdoo /Han Dongyoon /Oh Seong Joon /Chun Sanghyuk /Choe Junsuk /Yoo Youngjoon
發(fā)表時間:2019/5/13
論文鏈接:https://paper.yanxishe.com/review/7911
推薦理由:為了提高卷積神經(jīng)網(wǎng)絡(luò)分類器的性能,研究者提出了區(qū)域丟棄策略。事實證明,它們可以有效地引導(dǎo)模型關(guān)注對象中不易區(qū)分的部分(例如,腿而不是人的頭部),從而使網(wǎng)絡(luò)更好地進行泛化,并具有更好的對象定位能力。另一方面,當(dāng)前的區(qū)域性丟棄方法通過覆蓋黑色像素或隨機噪聲來去除訓(xùn)練圖像上的信息像素。這種刪除是不可取的,因為它會導(dǎo)致信息丟失和訓(xùn)練過程中的效率低下。
因此,作者提出了CutMix增強策略:訓(xùn)練圖像之間剪切和粘貼補丁,其中對應(yīng)的真值標(biāo)簽也與補丁的區(qū)域成比例地混合。通過有效利用訓(xùn)練像素和保持區(qū)域丟失的正則化效果,CutMix在CIFAR和ImageNet分類任務(wù)以及ImageNet弱監(jiān)督定位任務(wù)中始終優(yōu)于最新的增強策略。此外,與以前的增強方法不同,作者的CutMix訓(xùn)練的ImageNet分類器在用作預(yù)訓(xùn)練模型時,在Pascal檢測和MS-COCO圖像字幕基準(zhǔn)測試中獲得了一致的性能增益。作者還證明了CutMix改進了針對輸入損壞及其分布外檢測性能的模型魯棒性。
Mining and Summarizing Customer Reviews
作者:Minqing Hu /Bing Liu
發(fā)表時間:2004/12/22
論文鏈接:https://paper.yanxishe.com/review/7917
推薦理由:本文重點:這是一個具體應(yīng)用的文章,在電子商務(wù)應(yīng)用評論數(shù)據(jù)尤為重要,如何從評論中摘要出用戶對不用產(chǎn)品的不同角度的評價是這篇文章的任務(wù)
創(chuàng)新點:這篇文章構(gòu)建了一個系統(tǒng)化的工作,具體來說:
(1)挖掘客戶評論;
(2)識別每次回顧并決定每個意見句是否積極或消極;
(3)總結(jié)結(jié)果。
研究意義:這篇文章的工作在實際任務(wù)中確實取得了良好的效果。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。