0
本文作者: AI研習社 | 2020-03-24 16:42 |
12-in-1: 多任務(wù)視覺和語言表示學習
CVPR 2020 | 用于零樣本超分辨率的元轉(zhuǎn)移學習
CVPR 2020 | ABCNet:基于自適應(yīng)Bezier-Curve網(wǎng)絡(luò)的實時場景文本定位
CVPR 2020 | Sketch Less for More:基于細粒度草圖的動態(tài)圖像檢索
CVPR 2020 | PointAugment:一種自動增強的點云分類框架
論文名稱:12-in-1: Multi-Task Vision and Language Representation Learning
作者:Jiasen Lu
發(fā)表時間:2019/12/11
論文鏈接:https://paper.yanxishe.com/review/13547?from=leiphonecolumn_paperreview0324
推薦原因
本文研究意義:
當下AI模型的實驗數(shù)據(jù)集都是小而多樣的,這對于后續(xù)模型的訓練都會造成很大的影響,在此背景下,本文介紹了一項新穎的數(shù)據(jù)調(diào)度方法——多任務(wù)模型,以幫助避免過度訓練或訓練不足。為了驗證該方法是否可行,作者分別在12個視覺和語言數(shù)據(jù)集上進行了實驗,結(jié)果表明,使用這種方法后,我們的單一多任務(wù)模型優(yōu)于12個單一任務(wù)模型,這一新方法也為后續(xù)的研究帶來了新潮流。
論文名稱:Meta-Transfer Learning for Zero-Shot Super-Resolution
作者:Soh Jae Woong /Cho Sunwoo /Cho Nam Ik
發(fā)表時間:2020/2/27
論文鏈接:https://paper.yanxishe.com/review/12829?from=leiphonecolumn_paperreview0324
推薦原因
這篇論文被CVPR 2020接收,考慮的是零樣本超分辨率的問題。
以往的零樣本超分辨率方法需要數(shù)千次梯度更新,推理時間長。這篇論文提出用于零樣本超分辨率的元轉(zhuǎn)移學習。基于找到適合內(nèi)部學習的通用初始參數(shù),所提方法可以利用外部和內(nèi)部信息,一次梯度更新就可以產(chǎn)生相當可觀的結(jié)果,因此能快速適應(yīng)給定的圖像條件,并且應(yīng)用于大范圍圖像。
論文名稱:ABCNet: Real-time Scene Text Spotting with Adaptive Bezier-Curve Network
作者:Liu Yuliang /Chen Hao /Shen Chunhua /He Tong /Jin Lianwen /Wang Liangwei
發(fā)表時間:2020/2/24
論文鏈接:https://paper.yanxishe.com/review/12441?from=leiphonecolumn_paperreview0324
推薦原因
這篇論文被CVPR 2020接收,考慮的是場景文本檢測和識別的問題。
現(xiàn)有方法基于字符或基于分段,要么在字符標注上成本很高,要么需要維護復(fù)雜的工作流,都不適用于實時應(yīng)用程序。這篇論文提出了自適應(yīng)貝塞爾曲線網(wǎng)絡(luò)(Adaptive Bezier-Curve Network ,ABCNet),包括三個方面的創(chuàng)新:1)首次通過參數(shù)化的貝塞爾曲線自適應(yīng)擬合任意形狀文本;2)設(shè)計新的BezierAlign層,用于提取具有任意形狀的文本樣本的準確卷積特征,與以前方法相比顯著提高精度;3)與標準圖形框檢測相比,所提貝塞爾曲線檢測引入的計算開銷可忽略不計,從而使該方法在效率和準確性上均具優(yōu)勢。對任意形狀的基準數(shù)據(jù)集Total-Text和CTW1500進行的實驗表明,ABCNet達到當前最佳的準確性,同時顯著提高了速度,特別是在Total-Text上,ABCNet的實時版本比當前最佳方法快10倍以上,且在識別精度上極具競爭力。
論文名稱:Sketch Less for More: On-the-Fly Fine-Grained Sketch Based Image Retrieval
作者:Bhunia Ayan Kumar /Yang Yongxin /Hospedales Timothy M. /Xiang Tao /Song Yi-Zhe
發(fā)表時間:2020/2/24
論文鏈接:https://paper.yanxishe.com/review/12442?from=leiphonecolumn_paperreview0324
推薦原因
這篇論文被CVPR 2020接收,考慮的是基于草圖的細粒度圖像檢索,即在給定用戶查詢草圖的情況下檢索特定照片樣本的問題。
繪制草圖花費時間,且大多數(shù)人都難以繪制完整而忠實的草圖。為此這篇論文重新設(shè)計了檢索框架以應(yīng)對這個挑戰(zhàn),目標是以最少筆觸數(shù)檢索到目標照片。這篇論文還提出一種基于強化學習的跨模態(tài)檢索框架,一旦用戶開始繪制,便會立即開始檢索。此外,這篇論文還提出一種新的獎勵方案,該方案規(guī)避了與無關(guān)的筆畫筆觸相關(guān)的問題,從而在檢索過程中為模型提供更一致的等級列表。在兩個公開可用的細粒度草圖檢索數(shù)據(jù)集上的實驗表明,這篇論文所提方法比當前最佳方法具有更高的早期檢索效率。
論文名稱:PointAugment: an Auto-Augmentation Framework for Point Cloud Classification
作者:Li Ruihui /Li Xianzhi /Heng Pheng-Ann /Fu Chi-Wing
發(fā)表時間:2020/2/25
論文鏈接:https://paper.yanxishe.com/review/12686?from=leiphonecolumn_paperreview0324
推薦原因
這篇論文被CVPR 2020接收,要解決的是點云分類的問題。
這篇論文提出了一個名為PointAugment的點云分類框架,當訓練分類網(wǎng)絡(luò)時,該框架會自動優(yōu)化和擴充點云樣本以豐富數(shù)據(jù)多樣性。與現(xiàn)有的2D圖像自動增強方法不同,PointAugment具有樣本感知功能,并采用對抗學習策略來共同優(yōu)化增強器網(wǎng)絡(luò)和分類網(wǎng)絡(luò),學習生成最適合分類器的增強樣本。PointAugment根據(jù)形狀分類器和點位移來構(gòu)造可學習的點增強函數(shù),并根據(jù)分類器的學習進度精心設(shè)計損失函數(shù)以采用增強樣本。PointAugment在改善形狀分類和檢索中的有效性和魯棒性得到了實驗的驗證。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | CVPR 2020 論文推薦:Social-STGCNN;無偏場景圖生成;深度人臉識別;4D 關(guān)聯(lián)圖等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。