丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能學術 正文
發(fā)私信給AI研習社
發(fā)送

0

今日 Paper | 視覺目標;聯(lián)合學習;面部反欺;在元學習等

本文作者: AI研習社 2020-03-20 18:07
導語:為了更好地服務廣大 AI 青年,AI 研習社正式推出全新「論文」版塊。
今日 Paper | 視覺目標;聯(lián)合學習;面部反欺;在元學習等

  目錄

CVPR 2020 | 檢測視頻中關注的視覺目標

CVPR 2020 | D3Feat:密集檢測和3D局部特征描述的聯(lián)合學習

CVPR 2020 | 搜索中央差分卷積網絡以進行面部反欺

模型的密度估計能力、序列生成能力、BLEU分數(shù)之間到底是什么關系

在元學習和具體任務的學習之間尋找平衡

  CVPR 2020 | 檢測視頻中關注的視覺目標

論文名稱:Detecting Attended Visual Targets in Video

作者:Chong Eunji /Wang Yongxin /Ruiz Nataniel /Rehg James M.

發(fā)表時間:2020/3/5

論文鏈接:https://paper.yanxishe.com/review/13533?from=leiphonecolumn_paperreview0320

推薦原因

這篇論文被CVPR 2020接收,要解決的是檢測視頻中關注目標的問題。具體來說,目標是確定每個視頻幀中每個人的視線,并正確處理幀外的情況。所提的新架構有效模擬了場景與頭部特征之間的動態(tài)交互,以推斷隨時間變化的關注目標。同時這篇論文引入了一個新數(shù)據(jù)集VideoAttentionTarget,包含現(xiàn)實世界中復雜和動態(tài)的注視行為模式。在該數(shù)據(jù)集上進行的實驗表明,所提模型可以有效推斷視頻中的注意力。為進一步證明該方法的實用性,這篇論文將預測的注意力圖應用于兩個社交注視行為識別任務,并表明所得分類器明顯優(yōu)于現(xiàn)有方法。

今日 Paper | 視覺目標;聯(lián)合學習;面部反欺;在元學習等
今日 Paper | 視覺目標;聯(lián)合學習;面部反欺;在元學習等

  CVPR 2020 | D3Feat:密集檢測和3D局部特征描述的聯(lián)合學習

論文名稱:D3Feat: Joint Learning of Dense Detection and Description of 3D Local Features

作者:Bai Xuyang /Luo Zixin /Zhou Lei /Fu Hongbo /Quan Long /Tai Chiew-Lan

發(fā)表時間:2020/3/6

論文鏈接:https://paper.yanxishe.com/review/13946?from=leiphonecolumn_paperreview0320

推薦原因

這篇論文被CVPR 2020接收,關注的是對3D特征檢測器的研究。

這篇論文將3D全卷積網絡用于3D點云,并提出一種克服3D點云固有密度變化的關鍵點選擇策略,并進一步提出一種在訓練過程中由實時特征匹配結果指導的自監(jiān)督探測器損失。新方法可以密集預測每個3D點的檢測得分和描述特征。新方法在3DMatch和KITTI數(shù)據(jù)集上評估了室內和室外場景的最新結果,并在ETH數(shù)據(jù)集上顯示出強大的泛化能力。在實際應用中通過采用可靠的特征檢測器,對少量特征進行采樣就足以實現(xiàn)準確、快速的點云對準。

今日 Paper | 視覺目標;聯(lián)合學習;面部反欺;在元學習等
今日 Paper | 視覺目標;聯(lián)合學習;面部反欺;在元學習等

  CVPR 2020 | 搜索中央差分卷積網絡以進行面部反欺騙

論文名稱:Searching Central Difference Convolutional Networks for Face Anti-Spoofing

作者:Yu Zitong /Zhao Chenxu /Wang Zezheng /Qin Yunxiao /Su Zhuo /Li Xiaobai /Zhou Feng /Zhao Guoying

發(fā)表時間:2020/3/9

論文鏈接:https://paper.yanxishe.com/review/13945?from=leiphonecolumn_paperreview0320

推薦原因

這篇論文被CVPR 2020接收,考慮的是面部反欺詐的問題。

這篇論文提出一種基于中央差分卷積的幀級面部反欺詐方法,能夠通過匯總強度和梯度信息來捕獲固有的詳細模式。用中央差分卷積構建的網絡稱為中央差分卷積網絡(Central Difference Convolutional Network,CDCN)。與使用原始卷積構建的網絡相比,CDCN能提供更強大的建模能力。此外,在經過專門設計的中央差分卷積搜索空間上,神經架構搜索可以用于發(fā)現(xiàn)更強大的網絡結構,將其與多尺度注意力融合模塊組裝在一起可以進一步提高性能。

今日 Paper | 視覺目標;聯(lián)合學習;面部反欺;在元學習等
今日 Paper | 視覺目標;聯(lián)合學習;面部反欺;在元學習等

  模型的密度估計能力、序列生成能力、BLEU分數(shù)之間到底是什么關系

論文名稱:On the Discrepancy between Density Estimation and Sequence Generation

作者:Lee Jason /Tran Dustin /Firat Orhan /Cho Kyunghyun

發(fā)表時間:2020/2/17

論文鏈接:https://paper.yanxishe.com/review/13949?from=leiphonecolumn_paperreview0320

推薦原因

密度估計、序列生成這兩件任務,一般看來似乎是沒有什么關系的。但這篇論文研究后發(fā)現(xiàn),一個模型的密度估計能力、序列生成能力、BLEU分數(shù)三者之間其實有緊密的聯(lián)系。

如果把基于給定的輸入 x 預測 y 的分布看作是一個密度估計任務,那么機器翻譯、文本到語音轉換之類的序列生成任務就都可以看作是密度估計,然后就可以進一步用密度估計中使用的條件對數(shù)似然測試來評價模型。

不過,我們都這個測試和序列生成模型本身的設計目標還是有所不同的,但似乎沒人研究過其中的區(qū)別有多大。在這篇論文中,作者們在多項測試中對比了不同的密度估計結果和BLEU分數(shù)之間的關系,發(fā)現(xiàn)兩者間的關系受幾條微妙的因素影響,比如對數(shù)似然和BLEU高度相關,尤其是對于同一個家族的模型(各種自回歸模型,有同樣的參數(shù)先驗的隱含變量模型)。

在做了許多對比總結后,作者們最后建議,如果想要獲得很快的序列生成速度,可以在設計模型時選用帶有隱含變量的非自回歸模型,并且配合使用簡單的先驗。

今日 Paper | 視覺目標;聯(lián)合學習;面部反欺;在元學習等
今日 Paper | 視覺目標;聯(lián)合學習;面部反欺;在元學習等

  在元學習和具體任務的學習之間尋找平衡

論文名稱:Learning to Balance: Bayesian Meta-Learning for Imbalanced and Out-of-distribution Tasks

作者:Hae Beom Lee /Hayeon Lee /Donghyun Na /Saehoon Kim /Minseop Park /Eunho Yang /Sung Ju Hwang

發(fā)表時間:2019/9/26

論文鏈接:https://paper.yanxishe.com/review/13948?from=leiphonecolumn_paperreview0320

推薦原因

機器學習領域的研究員們希望模型能有更好的泛化能力,不要太過擬合到具體任務的設置里,所以近幾年元學習(meta-learning)的研究非?;馃?。

但元學習的研究有時候也掉進了固定的套路里,比如假定要學的多個任務里,每個任務中出現(xiàn)的樣本數(shù)量、類別數(shù)量都是一致的,所以他們也就會讓模型從每個任務中獲得同樣多的元知識 —— 但實際中,不同任務中的樣本數(shù)量、類別數(shù)量完全可以是不同的,不同任務的元知識含量也是不同的。所以這種做法并不好。

除此之外,當前的許多元學習研究中并不考慮見到的全新數(shù)據(jù)的分布如何,有可能這些數(shù)據(jù)的分布和學過的數(shù)據(jù)的分布完全不同,就沒辦法用來提高模型的表現(xiàn)。

為了解決這些實際問題,這篇論文提出了一種新的元學習模型,它會在“元學習”和“針對具體任務的學習”兩件事之間尋找平衡,不再是像以往的模型一樣對所有狀況統(tǒng)一處理。實驗表明這種方法的表現(xiàn)大大優(yōu)于此前所有的元學習方法。

這篇論文被 ICLR2020 接收為口頭報告論文。

今日 Paper | 視覺目標;聯(lián)合學習;面部反欺;在元學習等
今日 Paper | 視覺目標;聯(lián)合學習;面部反欺;在元學習等

今日 Paper | 視覺目標;聯(lián)合學習;面部反欺;在元學習等

雷鋒網雷鋒網雷鋒網

相關文章:

今日 Paper | 物體渲染;圖像和諧化;無偏數(shù)據(jù)處理方法;面部偽造檢測等

雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知

今日 Paper | 視覺目標;聯(lián)合學習;面部反欺;在元學習等

分享:
相關文章

編輯

聚焦數(shù)據(jù)科學,連接 AI 開發(fā)者。更多精彩內容,請訪問:yanxishe.com
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說