丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能學(xué)術(shù) 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等

本文作者: AI研習(xí)社 2020-03-20 18:07
導(dǎo)語:為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊。
今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等

  目錄

CVPR 2020 | 檢測視頻中關(guān)注的視覺目標(biāo)

CVPR 2020 | D3Feat:密集檢測和3D局部特征描述的聯(lián)合學(xué)習(xí)

CVPR 2020 | 搜索中央差分卷積網(wǎng)絡(luò)以進(jìn)行面部反欺

模型的密度估計(jì)能力、序列生成能力、BLEU分?jǐn)?shù)之間到底是什么關(guān)系

在元學(xué)習(xí)和具體任務(wù)的學(xué)習(xí)之間尋找平衡

  CVPR 2020 | 檢測視頻中關(guān)注的視覺目標(biāo)

論文名稱:Detecting Attended Visual Targets in Video

作者:Chong Eunji /Wang Yongxin /Ruiz Nataniel /Rehg James M.

發(fā)表時(shí)間:2020/3/5

論文鏈接:https://paper.yanxishe.com/review/13533?from=leiphonecolumn_paperreview0320

推薦原因

這篇論文被CVPR 2020接收,要解決的是檢測視頻中關(guān)注目標(biāo)的問題。具體來說,目標(biāo)是確定每個視頻幀中每個人的視線,并正確處理幀外的情況。所提的新架構(gòu)有效模擬了場景與頭部特征之間的動態(tài)交互,以推斷隨時(shí)間變化的關(guān)注目標(biāo)。同時(shí)這篇論文引入了一個新數(shù)據(jù)集VideoAttentionTarget,包含現(xiàn)實(shí)世界中復(fù)雜和動態(tài)的注視行為模式。在該數(shù)據(jù)集上進(jìn)行的實(shí)驗(yàn)表明,所提模型可以有效推斷視頻中的注意力。為進(jìn)一步證明該方法的實(shí)用性,這篇論文將預(yù)測的注意力圖應(yīng)用于兩個社交注視行為識別任務(wù),并表明所得分類器明顯優(yōu)于現(xiàn)有方法。

今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等
今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等

  CVPR 2020 | D3Feat:密集檢測和3D局部特征描述的聯(lián)合學(xué)習(xí)

論文名稱:D3Feat: Joint Learning of Dense Detection and Description of 3D Local Features

作者:Bai Xuyang /Luo Zixin /Zhou Lei /Fu Hongbo /Quan Long /Tai Chiew-Lan

發(fā)表時(shí)間:2020/3/6

論文鏈接:https://paper.yanxishe.com/review/13946?from=leiphonecolumn_paperreview0320

推薦原因

這篇論文被CVPR 2020接收,關(guān)注的是對3D特征檢測器的研究。

這篇論文將3D全卷積網(wǎng)絡(luò)用于3D點(diǎn)云,并提出一種克服3D點(diǎn)云固有密度變化的關(guān)鍵點(diǎn)選擇策略,并進(jìn)一步提出一種在訓(xùn)練過程中由實(shí)時(shí)特征匹配結(jié)果指導(dǎo)的自監(jiān)督探測器損失。新方法可以密集預(yù)測每個3D點(diǎn)的檢測得分和描述特征。新方法在3DMatch和KITTI數(shù)據(jù)集上評估了室內(nèi)和室外場景的最新結(jié)果,并在ETH數(shù)據(jù)集上顯示出強(qiáng)大的泛化能力。在實(shí)際應(yīng)用中通過采用可靠的特征檢測器,對少量特征進(jìn)行采樣就足以實(shí)現(xiàn)準(zhǔn)確、快速的點(diǎn)云對準(zhǔn)。

今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等
今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等

  CVPR 2020 | 搜索中央差分卷積網(wǎng)絡(luò)以進(jìn)行面部反欺騙

論文名稱:Searching Central Difference Convolutional Networks for Face Anti-Spoofing

作者:Yu Zitong /Zhao Chenxu /Wang Zezheng /Qin Yunxiao /Su Zhuo /Li Xiaobai /Zhou Feng /Zhao Guoying

發(fā)表時(shí)間:2020/3/9

論文鏈接:https://paper.yanxishe.com/review/13945?from=leiphonecolumn_paperreview0320

推薦原因

這篇論文被CVPR 2020接收,考慮的是面部反欺詐的問題。

這篇論文提出一種基于中央差分卷積的幀級面部反欺詐方法,能夠通過匯總強(qiáng)度和梯度信息來捕獲固有的詳細(xì)模式。用中央差分卷積構(gòu)建的網(wǎng)絡(luò)稱為中央差分卷積網(wǎng)絡(luò)(Central Difference Convolutional Network,CDCN)。與使用原始卷積構(gòu)建的網(wǎng)絡(luò)相比,CDCN能提供更強(qiáng)大的建模能力。此外,在經(jīng)過專門設(shè)計(jì)的中央差分卷積搜索空間上,神經(jīng)架構(gòu)搜索可以用于發(fā)現(xiàn)更強(qiáng)大的網(wǎng)絡(luò)結(jié)構(gòu),將其與多尺度注意力融合模塊組裝在一起可以進(jìn)一步提高性能。

今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等
今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等

  模型的密度估計(jì)能力、序列生成能力、BLEU分?jǐn)?shù)之間到底是什么關(guān)系

論文名稱:On the Discrepancy between Density Estimation and Sequence Generation

作者:Lee Jason /Tran Dustin /Firat Orhan /Cho Kyunghyun

發(fā)表時(shí)間:2020/2/17

論文鏈接:https://paper.yanxishe.com/review/13949?from=leiphonecolumn_paperreview0320

推薦原因

密度估計(jì)、序列生成這兩件任務(wù),一般看來似乎是沒有什么關(guān)系的。但這篇論文研究后發(fā)現(xiàn),一個模型的密度估計(jì)能力、序列生成能力、BLEU分?jǐn)?shù)三者之間其實(shí)有緊密的聯(lián)系。

如果把基于給定的輸入 x 預(yù)測 y 的分布看作是一個密度估計(jì)任務(wù),那么機(jī)器翻譯、文本到語音轉(zhuǎn)換之類的序列生成任務(wù)就都可以看作是密度估計(jì),然后就可以進(jìn)一步用密度估計(jì)中使用的條件對數(shù)似然測試來評價(jià)模型。

不過,我們都這個測試和序列生成模型本身的設(shè)計(jì)目標(biāo)還是有所不同的,但似乎沒人研究過其中的區(qū)別有多大。在這篇論文中,作者們在多項(xiàng)測試中對比了不同的密度估計(jì)結(jié)果和BLEU分?jǐn)?shù)之間的關(guān)系,發(fā)現(xiàn)兩者間的關(guān)系受幾條微妙的因素影響,比如對數(shù)似然和BLEU高度相關(guān),尤其是對于同一個家族的模型(各種自回歸模型,有同樣的參數(shù)先驗(yàn)的隱含變量模型)。

在做了許多對比總結(jié)后,作者們最后建議,如果想要獲得很快的序列生成速度,可以在設(shè)計(jì)模型時(shí)選用帶有隱含變量的非自回歸模型,并且配合使用簡單的先驗(yàn)。

今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等
今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等

  在元學(xué)習(xí)和具體任務(wù)的學(xué)習(xí)之間尋找平衡

論文名稱:Learning to Balance: Bayesian Meta-Learning for Imbalanced and Out-of-distribution Tasks

作者:Hae Beom Lee /Hayeon Lee /Donghyun Na /Saehoon Kim /Minseop Park /Eunho Yang /Sung Ju Hwang

發(fā)表時(shí)間:2019/9/26

論文鏈接:https://paper.yanxishe.com/review/13948?from=leiphonecolumn_paperreview0320

推薦原因

機(jī)器學(xué)習(xí)領(lǐng)域的研究員們希望模型能有更好的泛化能力,不要太過擬合到具體任務(wù)的設(shè)置里,所以近幾年元學(xué)習(xí)(meta-learning)的研究非?;馃?。

但元學(xué)習(xí)的研究有時(shí)候也掉進(jìn)了固定的套路里,比如假定要學(xué)的多個任務(wù)里,每個任務(wù)中出現(xiàn)的樣本數(shù)量、類別數(shù)量都是一致的,所以他們也就會讓模型從每個任務(wù)中獲得同樣多的元知識 —— 但實(shí)際中,不同任務(wù)中的樣本數(shù)量、類別數(shù)量完全可以是不同的,不同任務(wù)的元知識含量也是不同的。所以這種做法并不好。

除此之外,當(dāng)前的許多元學(xué)習(xí)研究中并不考慮見到的全新數(shù)據(jù)的分布如何,有可能這些數(shù)據(jù)的分布和學(xué)過的數(shù)據(jù)的分布完全不同,就沒辦法用來提高模型的表現(xiàn)。

為了解決這些實(shí)際問題,這篇論文提出了一種新的元學(xué)習(xí)模型,它會在“元學(xué)習(xí)”和“針對具體任務(wù)的學(xué)習(xí)”兩件事之間尋找平衡,不再是像以往的模型一樣對所有狀況統(tǒng)一處理。實(shí)驗(yàn)表明這種方法的表現(xiàn)大大優(yōu)于此前所有的元學(xué)習(xí)方法。

這篇論文被 ICLR2020 接收為口頭報(bào)告論文。

今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等
今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等

今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

相關(guān)文章:

今日 Paper | 物體渲染;圖像和諧化;無偏數(shù)據(jù)處理方法;面部偽造檢測等

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

今日 Paper | 視覺目標(biāo);聯(lián)合學(xué)習(xí);面部反欺;在元學(xué)習(xí)等

分享:
相關(guān)文章

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開發(fā)者。更多精彩內(nèi)容,請?jiān)L問:yanxishe.com
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說