0
本文作者: AI研習(xí)社 | 2020-03-03 11:49 |
Sketch Less for More:基于細(xì)粒度草圖的動(dòng)態(tài)圖像檢索
ABCNet:基于自適應(yīng)Bezier-Curve網(wǎng)絡(luò)的實(shí)時(shí)場(chǎng)景文本定位
通過逐步增加蒙版區(qū)域來修復(fù)圖像
BlockGAN:從未標(biāo)記的圖像中學(xué)習(xí)3D對(duì)象感知場(chǎng)景表示
用于行人重識(shí)別的交叉分辨對(duì)抗性雙重網(wǎng)絡(luò)
論文名稱:Sketch Less for More: On-the-Fly Fine-Grained Sketch Based Image Retrieval
作者:Bhunia Ayan Kumar /Yang Yongxin /Hospedales Timothy M. /Xiang Tao /Song Yi-Zhe
發(fā)表時(shí)間:2020/2/24
論文鏈接:https://paper.yanxishe.com/review/12442?from=leiphonecolumn_paperreview0303
推薦原因
這篇論文被CVPR 2020接收,考慮的是基于草圖的細(xì)粒度圖像檢索,即在給定用戶查詢草圖的情況下檢索特定照片樣本的問題。
繪制草圖花費(fèi)時(shí)間,且大多數(shù)人都難以繪制完整而忠實(shí)的草圖。為此這篇論文重新設(shè)計(jì)了檢索框架以應(yīng)對(duì)這個(gè)挑戰(zhàn),目標(biāo)是以最少筆觸數(shù)檢索到目標(biāo)照片。這篇論文還提出一種基于強(qiáng)化學(xué)習(xí)的跨模態(tài)檢索框架,一旦用戶開始繪制,便會(huì)立即開始檢索。此外,這篇論文還提出一種新的獎(jiǎng)勵(lì)方案,該方案規(guī)避了與無關(guān)的筆畫筆觸相關(guān)的問題,從而在檢索過程中為模型提供更一致的等級(jí)列表。在兩個(gè)公開可用的細(xì)粒度草圖檢索數(shù)據(jù)集上的實(shí)驗(yàn)表明,這篇論文所提方法比當(dāng)前最佳方法具有更高的早期檢索效率。
論文名稱:ABCNet: Real-time Scene Text Spotting with Adaptive Bezier-Curve Network
作者:Liu Yuliang /Chen Hao /Shen Chunhua /He Tong /Jin Lianwen /Wang Liangwei
發(fā)表時(shí)間:2020/2/24
論文鏈接:https://paper.yanxishe.com/review/12441?from=leiphonecolumn_paperreview0303
推薦原因
這篇論文被CVPR 2020接收,考慮的是場(chǎng)景文本檢測(cè)和識(shí)別的問題。
現(xiàn)有方法基于字符或基于分段,要么在字符標(biāo)注上成本很高,要么需要維護(hù)復(fù)雜的工作流,都不適用于實(shí)時(shí)應(yīng)用程序。這篇論文提出了自適應(yīng)貝塞爾曲線網(wǎng)絡(luò)(Adaptive Bezier-Curve Network ,ABCNet),包括三個(gè)方面的創(chuàng)新:1)首次通過參數(shù)化的貝塞爾曲線自適應(yīng)擬合任意形狀文本;2)設(shè)計(jì)新的BezierAlign層,用于提取具有任意形狀的文本樣本的準(zhǔn)確卷積特征,與以前方法相比顯著提高精度;3)與標(biāo)準(zhǔn)圖形框檢測(cè)相比,所提貝塞爾曲線檢測(cè)引入的計(jì)算開銷可忽略不計(jì),從而使該方法在效率和準(zhǔn)確性上均具優(yōu)勢(shì)。對(duì)任意形狀的基準(zhǔn)數(shù)據(jù)集Total-Text和CTW1500進(jìn)行的實(shí)驗(yàn)表明,ABCNet達(dá)到當(dāng)前最佳的準(zhǔn)確性,同時(shí)顯著提高了速度,特別是在Total-Text上,ABCNet的實(shí)時(shí)版本比當(dāng)前最佳方法快10倍以上,且在識(shí)別精度上極具競(jìng)爭(zhēng)力。
論文名稱:Learning to Inpaint by Progressively Growing the Mask Regions
作者:Hedjazi Mohamed Abbas /Genc Yakup
發(fā)表時(shí)間:2020/2/21
論文鏈接:https://paper.yanxishe.com/review/12259?from=leiphonecolumn_paperreview0303
推薦原因
這篇論文考慮的是圖像修復(fù)問題。
生成模型可以產(chǎn)生視覺上合理的圖像,但是隨著被遮擋區(qū)域的增大,以往的方法難以生成正確的結(jié)構(gòu)和顏色。這篇論文對(duì)這個(gè)問題引入了一種新的課程樣式訓(xùn)練方法,在訓(xùn)練時(shí)間內(nèi)逐漸增加遮罩區(qū)域的大小,而在測(cè)試時(shí),用戶可以在任意位置給出隨機(jī)尺寸的遮罩。這種訓(xùn)練方法可以使得生成對(duì)抗模型的訓(xùn)練更加平穩(wěn),提供更好的顏色一致性并且捕捉對(duì)象的連續(xù)性。
論文名稱:BlockGAN: Learning 3D Object-aware Scene Representations from Unlabelled Images
作者:Nguyen-Phuoc Thu /Richardt Christian /Mai Long /Yang Yong-Liang /Mitra Niloy
發(fā)表時(shí)間:2020/2/20
論文鏈接:https://paper.yanxishe.com/review/12258?from=leiphonecolumn_paperreview0303
推薦原因
這篇論文提出了一個(gè)名為BlockGAN的圖像生成模型,可以直接從未標(biāo)注的2D圖像中學(xué)習(xí)對(duì)象感知的3D場(chǎng)景表示。BlockGAN首先生成背景和前景對(duì)象的3D特征,然后將它們組合為整個(gè)場(chǎng)景的3D特征,最后將它們渲染為逼真的圖像。BlockGAN可以推理出對(duì)象的外觀(例如陰影和照明)之間的遮擋和交互作用,并提供對(duì)每個(gè)對(duì)象的3D姿勢(shì)和身份的控制,同時(shí)保持圖像的逼真度。BlockGAN的效果可以在項(xiàng)目主頁中查看。
論文名稱:Cross-Resolution Adversarial Dual Network for Person Re-Identification and Beyond
作者:Li Yu-Jhe /Chen Yun-Chun /Lin Yen-Yu /Wang Yu-Chiang Frank
發(fā)表時(shí)間:2020/2/19
論文鏈接:https://paper.yanxishe.com/review/12257?from=leiphonecolumn_paperreview0303
推薦原因
這篇論文要解決的是行人重識(shí)別問題。
考慮到真實(shí)場(chǎng)景中攝像機(jī)和目標(biāo)人之間距離不同可能會(huì)帶來分辨率不匹配的情況,會(huì)降低行人重識(shí)別算法的表現(xiàn)。這篇論文提出了一種的新的生成對(duì)抗網(wǎng)絡(luò)來解決跨分辨率的行人重識(shí)別,可以學(xué)習(xí)分辨率不變的圖像表示,同時(shí)能恢復(fù)低分辨率輸入圖像丟失的細(xì)節(jié),共同用于改善重識(shí)別的性能。在五個(gè)標(biāo)準(zhǔn)行人重識(shí)別基準(zhǔn)上的實(shí)驗(yàn)結(jié)果證實(shí)了該方法的有效性,尤其是在訓(xùn)練過程中不知道輸入分辨率的情況下。此外,兩個(gè)車輛重識(shí)別基準(zhǔn)測(cè)試的實(shí)驗(yàn)結(jié)果也證實(shí)了該模型在交叉分辨率視覺任務(wù)上的通用性。
為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學(xué)生青年的「興趣點(diǎn)」,通過論文整理推薦、點(diǎn)評(píng)解讀、代碼復(fù)現(xiàn)。致力成為國(guó)內(nèi)外前沿研究成果學(xué)習(xí)討論和發(fā)表的聚集地,也讓優(yōu)秀科研得到更為廣泛的傳播和認(rèn)可。
我們希望熱愛學(xué)術(shù)的你,可以加入我們的論文作者團(tuán)隊(duì)。
加入論文作者團(tuán)隊(duì)你可以獲得
1.署著你名字的文章,將你打造成最耀眼的學(xué)術(shù)明星
2.豐厚的稿酬
3.AI 名企內(nèi)推、大會(huì)門票福利、獨(dú)家周邊紀(jì)念品等等等。
加入論文作者團(tuán)隊(duì)你需要:
1.將你喜歡的論文推薦給廣大的研習(xí)社社友
2.撰寫論文解讀
如果你已經(jīng)準(zhǔn)備好加入 AI 研習(xí)社的論文兼職作者團(tuán)隊(duì),可以添加運(yùn)營(yíng)小姐姐的微信(ID:julylihuaijiang),備注“論文兼職作者”
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | 自適應(yīng)次梯度法;多域聯(lián)合語義框架;無問答對(duì)分析;口語系統(tǒng)評(píng)價(jià)等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。