0
本文作者: AI研習社 | 2020-03-20 18:07 |
CVPR 2020 | 檢測視頻中關注的視覺目標
CVPR 2020 | D3Feat:密集檢測和3D局部特征描述的聯(lián)合學習
CVPR 2020 | 搜索中央差分卷積網絡以進行面部反欺
模型的密度估計能力、序列生成能力、BLEU分數(shù)之間到底是什么關系
在元學習和具體任務的學習之間尋找平衡
論文名稱:Detecting Attended Visual Targets in Video
作者:Chong Eunji /Wang Yongxin /Ruiz Nataniel /Rehg James M.
發(fā)表時間:2020/3/5
論文鏈接:https://paper.yanxishe.com/review/13533?from=leiphonecolumn_paperreview0320
推薦原因
這篇論文被CVPR 2020接收,要解決的是檢測視頻中關注目標的問題。具體來說,目標是確定每個視頻幀中每個人的視線,并正確處理幀外的情況。所提的新架構有效模擬了場景與頭部特征之間的動態(tài)交互,以推斷隨時間變化的關注目標。同時這篇論文引入了一個新數(shù)據(jù)集VideoAttentionTarget,包含現(xiàn)實世界中復雜和動態(tài)的注視行為模式。在該數(shù)據(jù)集上進行的實驗表明,所提模型可以有效推斷視頻中的注意力。為進一步證明該方法的實用性,這篇論文將預測的注意力圖應用于兩個社交注視行為識別任務,并表明所得分類器明顯優(yōu)于現(xiàn)有方法。
論文名稱:D3Feat: Joint Learning of Dense Detection and Description of 3D Local Features
作者:Bai Xuyang /Luo Zixin /Zhou Lei /Fu Hongbo /Quan Long /Tai Chiew-Lan
發(fā)表時間:2020/3/6
論文鏈接:https://paper.yanxishe.com/review/13946?from=leiphonecolumn_paperreview0320
推薦原因
這篇論文被CVPR 2020接收,關注的是對3D特征檢測器的研究。
這篇論文將3D全卷積網絡用于3D點云,并提出一種克服3D點云固有密度變化的關鍵點選擇策略,并進一步提出一種在訓練過程中由實時特征匹配結果指導的自監(jiān)督探測器損失。新方法可以密集預測每個3D點的檢測得分和描述特征。新方法在3DMatch和KITTI數(shù)據(jù)集上評估了室內和室外場景的最新結果,并在ETH數(shù)據(jù)集上顯示出強大的泛化能力。在實際應用中通過采用可靠的特征檢測器,對少量特征進行采樣就足以實現(xiàn)準確、快速的點云對準。
論文名稱:Searching Central Difference Convolutional Networks for Face Anti-Spoofing
作者:Yu Zitong /Zhao Chenxu /Wang Zezheng /Qin Yunxiao /Su Zhuo /Li Xiaobai /Zhou Feng /Zhao Guoying
發(fā)表時間:2020/3/9
論文鏈接:https://paper.yanxishe.com/review/13945?from=leiphonecolumn_paperreview0320
推薦原因
這篇論文被CVPR 2020接收,考慮的是面部反欺詐的問題。
這篇論文提出一種基于中央差分卷積的幀級面部反欺詐方法,能夠通過匯總強度和梯度信息來捕獲固有的詳細模式。用中央差分卷積構建的網絡稱為中央差分卷積網絡(Central Difference Convolutional Network,CDCN)。與使用原始卷積構建的網絡相比,CDCN能提供更強大的建模能力。此外,在經過專門設計的中央差分卷積搜索空間上,神經架構搜索可以用于發(fā)現(xiàn)更強大的網絡結構,將其與多尺度注意力融合模塊組裝在一起可以進一步提高性能。
論文名稱:On the Discrepancy between Density Estimation and Sequence Generation
作者:Lee Jason /Tran Dustin /Firat Orhan /Cho Kyunghyun
發(fā)表時間:2020/2/17
論文鏈接:https://paper.yanxishe.com/review/13949?from=leiphonecolumn_paperreview0320
推薦原因
密度估計、序列生成這兩件任務,一般看來似乎是沒有什么關系的。但這篇論文研究后發(fā)現(xiàn),一個模型的密度估計能力、序列生成能力、BLEU分數(shù)三者之間其實有緊密的聯(lián)系。
如果把基于給定的輸入 x 預測 y 的分布看作是一個密度估計任務,那么機器翻譯、文本到語音轉換之類的序列生成任務就都可以看作是密度估計,然后就可以進一步用密度估計中使用的條件對數(shù)似然測試來評價模型。
不過,我們都這個測試和序列生成模型本身的設計目標還是有所不同的,但似乎沒人研究過其中的區(qū)別有多大。在這篇論文中,作者們在多項測試中對比了不同的密度估計結果和BLEU分數(shù)之間的關系,發(fā)現(xiàn)兩者間的關系受幾條微妙的因素影響,比如對數(shù)似然和BLEU高度相關,尤其是對于同一個家族的模型(各種自回歸模型,有同樣的參數(shù)先驗的隱含變量模型)。
在做了許多對比總結后,作者們最后建議,如果想要獲得很快的序列生成速度,可以在設計模型時選用帶有隱含變量的非自回歸模型,并且配合使用簡單的先驗。
論文名稱:Learning to Balance: Bayesian Meta-Learning for Imbalanced and Out-of-distribution Tasks
作者:Hae Beom Lee /Hayeon Lee /Donghyun Na /Saehoon Kim /Minseop Park /Eunho Yang /Sung Ju Hwang
發(fā)表時間:2019/9/26
論文鏈接:https://paper.yanxishe.com/review/13948?from=leiphonecolumn_paperreview0320
推薦原因
機器學習領域的研究員們希望模型能有更好的泛化能力,不要太過擬合到具體任務的設置里,所以近幾年元學習(meta-learning)的研究非?;馃?。
但元學習的研究有時候也掉進了固定的套路里,比如假定要學的多個任務里,每個任務中出現(xiàn)的樣本數(shù)量、類別數(shù)量都是一致的,所以他們也就會讓模型從每個任務中獲得同樣多的元知識 —— 但實際中,不同任務中的樣本數(shù)量、類別數(shù)量完全可以是不同的,不同任務的元知識含量也是不同的。所以這種做法并不好。
除此之外,當前的許多元學習研究中并不考慮見到的全新數(shù)據(jù)的分布如何,有可能這些數(shù)據(jù)的分布和學過的數(shù)據(jù)的分布完全不同,就沒辦法用來提高模型的表現(xiàn)。
為了解決這些實際問題,這篇論文提出了一種新的元學習模型,它會在“元學習”和“針對具體任務的學習”兩件事之間尋找平衡,不再是像以往的模型一樣對所有狀況統(tǒng)一處理。實驗表明這種方法的表現(xiàn)大大優(yōu)于此前所有的元學習方法。
這篇論文被 ICLR2020 接收為口頭報告論文。
雷鋒網雷鋒網雷鋒網
相關文章:
今日 Paper | 物體渲染;圖像和諧化;無偏數(shù)據(jù)處理方法;面部偽造檢測等
雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知。