0
本文作者: AI研習(xí)社 | 2020-03-20 18:07 |
CVPR 2020 | 檢測視頻中關(guān)注的視覺目標(biāo)
CVPR 2020 | D3Feat:密集檢測和3D局部特征描述的聯(lián)合學(xué)習(xí)
CVPR 2020 | 搜索中央差分卷積網(wǎng)絡(luò)以進(jìn)行面部反欺
模型的密度估計(jì)能力、序列生成能力、BLEU分?jǐn)?shù)之間到底是什么關(guān)系
在元學(xué)習(xí)和具體任務(wù)的學(xué)習(xí)之間尋找平衡
論文名稱:Detecting Attended Visual Targets in Video
作者:Chong Eunji /Wang Yongxin /Ruiz Nataniel /Rehg James M.
發(fā)表時(shí)間:2020/3/5
論文鏈接:https://paper.yanxishe.com/review/13533?from=leiphonecolumn_paperreview0320
推薦原因
這篇論文被CVPR 2020接收,要解決的是檢測視頻中關(guān)注目標(biāo)的問題。具體來說,目標(biāo)是確定每個視頻幀中每個人的視線,并正確處理幀外的情況。所提的新架構(gòu)有效模擬了場景與頭部特征之間的動態(tài)交互,以推斷隨時(shí)間變化的關(guān)注目標(biāo)。同時(shí)這篇論文引入了一個新數(shù)據(jù)集VideoAttentionTarget,包含現(xiàn)實(shí)世界中復(fù)雜和動態(tài)的注視行為模式。在該數(shù)據(jù)集上進(jìn)行的實(shí)驗(yàn)表明,所提模型可以有效推斷視頻中的注意力。為進(jìn)一步證明該方法的實(shí)用性,這篇論文將預(yù)測的注意力圖應(yīng)用于兩個社交注視行為識別任務(wù),并表明所得分類器明顯優(yōu)于現(xiàn)有方法。
論文名稱:D3Feat: Joint Learning of Dense Detection and Description of 3D Local Features
作者:Bai Xuyang /Luo Zixin /Zhou Lei /Fu Hongbo /Quan Long /Tai Chiew-Lan
發(fā)表時(shí)間:2020/3/6
論文鏈接:https://paper.yanxishe.com/review/13946?from=leiphonecolumn_paperreview0320
推薦原因
這篇論文被CVPR 2020接收,關(guān)注的是對3D特征檢測器的研究。
這篇論文將3D全卷積網(wǎng)絡(luò)用于3D點(diǎn)云,并提出一種克服3D點(diǎn)云固有密度變化的關(guān)鍵點(diǎn)選擇策略,并進(jìn)一步提出一種在訓(xùn)練過程中由實(shí)時(shí)特征匹配結(jié)果指導(dǎo)的自監(jiān)督探測器損失。新方法可以密集預(yù)測每個3D點(diǎn)的檢測得分和描述特征。新方法在3DMatch和KITTI數(shù)據(jù)集上評估了室內(nèi)和室外場景的最新結(jié)果,并在ETH數(shù)據(jù)集上顯示出強(qiáng)大的泛化能力。在實(shí)際應(yīng)用中通過采用可靠的特征檢測器,對少量特征進(jìn)行采樣就足以實(shí)現(xiàn)準(zhǔn)確、快速的點(diǎn)云對準(zhǔn)。
論文名稱:Searching Central Difference Convolutional Networks for Face Anti-Spoofing
作者:Yu Zitong /Zhao Chenxu /Wang Zezheng /Qin Yunxiao /Su Zhuo /Li Xiaobai /Zhou Feng /Zhao Guoying
發(fā)表時(shí)間:2020/3/9
論文鏈接:https://paper.yanxishe.com/review/13945?from=leiphonecolumn_paperreview0320
推薦原因
這篇論文被CVPR 2020接收,考慮的是面部反欺詐的問題。
這篇論文提出一種基于中央差分卷積的幀級面部反欺詐方法,能夠通過匯總強(qiáng)度和梯度信息來捕獲固有的詳細(xì)模式。用中央差分卷積構(gòu)建的網(wǎng)絡(luò)稱為中央差分卷積網(wǎng)絡(luò)(Central Difference Convolutional Network,CDCN)。與使用原始卷積構(gòu)建的網(wǎng)絡(luò)相比,CDCN能提供更強(qiáng)大的建模能力。此外,在經(jīng)過專門設(shè)計(jì)的中央差分卷積搜索空間上,神經(jīng)架構(gòu)搜索可以用于發(fā)現(xiàn)更強(qiáng)大的網(wǎng)絡(luò)結(jié)構(gòu),將其與多尺度注意力融合模塊組裝在一起可以進(jìn)一步提高性能。
論文名稱:On the Discrepancy between Density Estimation and Sequence Generation
作者:Lee Jason /Tran Dustin /Firat Orhan /Cho Kyunghyun
發(fā)表時(shí)間:2020/2/17
論文鏈接:https://paper.yanxishe.com/review/13949?from=leiphonecolumn_paperreview0320
推薦原因
密度估計(jì)、序列生成這兩件任務(wù),一般看來似乎是沒有什么關(guān)系的。但這篇論文研究后發(fā)現(xiàn),一個模型的密度估計(jì)能力、序列生成能力、BLEU分?jǐn)?shù)三者之間其實(shí)有緊密的聯(lián)系。
如果把基于給定的輸入 x 預(yù)測 y 的分布看作是一個密度估計(jì)任務(wù),那么機(jī)器翻譯、文本到語音轉(zhuǎn)換之類的序列生成任務(wù)就都可以看作是密度估計(jì),然后就可以進(jìn)一步用密度估計(jì)中使用的條件對數(shù)似然測試來評價(jià)模型。
不過,我們都這個測試和序列生成模型本身的設(shè)計(jì)目標(biāo)還是有所不同的,但似乎沒人研究過其中的區(qū)別有多大。在這篇論文中,作者們在多項(xiàng)測試中對比了不同的密度估計(jì)結(jié)果和BLEU分?jǐn)?shù)之間的關(guān)系,發(fā)現(xiàn)兩者間的關(guān)系受幾條微妙的因素影響,比如對數(shù)似然和BLEU高度相關(guān),尤其是對于同一個家族的模型(各種自回歸模型,有同樣的參數(shù)先驗(yàn)的隱含變量模型)。
在做了許多對比總結(jié)后,作者們最后建議,如果想要獲得很快的序列生成速度,可以在設(shè)計(jì)模型時(shí)選用帶有隱含變量的非自回歸模型,并且配合使用簡單的先驗(yàn)。
論文名稱:Learning to Balance: Bayesian Meta-Learning for Imbalanced and Out-of-distribution Tasks
作者:Hae Beom Lee /Hayeon Lee /Donghyun Na /Saehoon Kim /Minseop Park /Eunho Yang /Sung Ju Hwang
發(fā)表時(shí)間:2019/9/26
論文鏈接:https://paper.yanxishe.com/review/13948?from=leiphonecolumn_paperreview0320
推薦原因
機(jī)器學(xué)習(xí)領(lǐng)域的研究員們希望模型能有更好的泛化能力,不要太過擬合到具體任務(wù)的設(shè)置里,所以近幾年元學(xué)習(xí)(meta-learning)的研究非?;馃?。
但元學(xué)習(xí)的研究有時(shí)候也掉進(jìn)了固定的套路里,比如假定要學(xué)的多個任務(wù)里,每個任務(wù)中出現(xiàn)的樣本數(shù)量、類別數(shù)量都是一致的,所以他們也就會讓模型從每個任務(wù)中獲得同樣多的元知識 —— 但實(shí)際中,不同任務(wù)中的樣本數(shù)量、類別數(shù)量完全可以是不同的,不同任務(wù)的元知識含量也是不同的。所以這種做法并不好。
除此之外,當(dāng)前的許多元學(xué)習(xí)研究中并不考慮見到的全新數(shù)據(jù)的分布如何,有可能這些數(shù)據(jù)的分布和學(xué)過的數(shù)據(jù)的分布完全不同,就沒辦法用來提高模型的表現(xiàn)。
為了解決這些實(shí)際問題,這篇論文提出了一種新的元學(xué)習(xí)模型,它會在“元學(xué)習(xí)”和“針對具體任務(wù)的學(xué)習(xí)”兩件事之間尋找平衡,不再是像以往的模型一樣對所有狀況統(tǒng)一處理。實(shí)驗(yàn)表明這種方法的表現(xiàn)大大優(yōu)于此前所有的元學(xué)習(xí)方法。
這篇論文被 ICLR2020 接收為口頭報(bào)告論文。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | 物體渲染;圖像和諧化;無偏數(shù)據(jù)處理方法;面部偽造檢測等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。