丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能學術(shù) 正文
發(fā)私信給AI研習社
發(fā)送

0

今日 Paper | 動態(tài)圖像檢索;實時場景文本定位;感知場景表示;雙重網(wǎng)絡(luò)等

本文作者: AI研習社 2020-03-03 11:49
導(dǎo)語:為了更好地服務(wù)廣大 AI 青年,AI 研習社正式推出全新「論文」版塊。
今日 Paper | 動態(tài)圖像檢索;實時場景文本定位;感知場景表示;雙重網(wǎng)絡(luò)等

  目錄

Sketch Less for More:基于細粒度草圖的動態(tài)圖像檢索

ABCNet:基于自適應(yīng)Bezier-Curve網(wǎng)絡(luò)的實時場景文本定位

通過逐步增加蒙版區(qū)域來修復(fù)圖像

BlockGAN:從未標記的圖像中學習3D對象感知場景表示

用于行人重識別的交叉分辨對抗性雙重網(wǎng)絡(luò)

  Sketch Less for More:基于細粒度草圖的動態(tài)圖像檢索

論文名稱:Sketch Less for More: On-the-Fly Fine-Grained Sketch Based Image Retrieval

作者:Bhunia Ayan Kumar /Yang Yongxin /Hospedales Timothy M. /Xiang Tao /Song Yi-Zhe

發(fā)表時間:2020/2/24

論文鏈接:https://paper.yanxishe.com/review/12442?from=leiphonecolumn_paperreview0303

推薦原因

這篇論文被CVPR 2020接收,考慮的是基于草圖的細粒度圖像檢索,即在給定用戶查詢草圖的情況下檢索特定照片樣本的問題。

繪制草圖花費時間,且大多數(shù)人都難以繪制完整而忠實的草圖。為此這篇論文重新設(shè)計了檢索框架以應(yīng)對這個挑戰(zhàn),目標是以最少筆觸數(shù)檢索到目標照片。這篇論文還提出一種基于強化學習的跨模態(tài)檢索框架,一旦用戶開始繪制,便會立即開始檢索。此外,這篇論文還提出一種新的獎勵方案,該方案規(guī)避了與無關(guān)的筆畫筆觸相關(guān)的問題,從而在檢索過程中為模型提供更一致的等級列表。在兩個公開可用的細粒度草圖檢索數(shù)據(jù)集上的實驗表明,這篇論文所提方法比當前最佳方法具有更高的早期檢索效率。

今日 Paper | 動態(tài)圖像檢索;實時場景文本定位;感知場景表示;雙重網(wǎng)絡(luò)等
今日 Paper | 動態(tài)圖像檢索;實時場景文本定位;感知場景表示;雙重網(wǎng)絡(luò)等

  ABCNet:基于自適應(yīng)Bezier-Curve網(wǎng)絡(luò)的實時場景文本定位

論文名稱:ABCNet: Real-time Scene Text Spotting with Adaptive Bezier-Curve Network

作者:Liu Yuliang /Chen Hao /Shen Chunhua /He Tong /Jin Lianwen /Wang Liangwei

發(fā)表時間:2020/2/24

論文鏈接:https://paper.yanxishe.com/review/12441?from=leiphonecolumn_paperreview0303

推薦原因

這篇論文被CVPR 2020接收,考慮的是場景文本檢測和識別的問題。

現(xiàn)有方法基于字符或基于分段,要么在字符標注上成本很高,要么需要維護復(fù)雜的工作流,都不適用于實時應(yīng)用程序。這篇論文提出了自適應(yīng)貝塞爾曲線網(wǎng)絡(luò)(Adaptive Bezier-Curve Network ,ABCNet),包括三個方面的創(chuàng)新:1)首次通過參數(shù)化的貝塞爾曲線自適應(yīng)擬合任意形狀文本;2)設(shè)計新的BezierAlign層,用于提取具有任意形狀的文本樣本的準確卷積特征,與以前方法相比顯著提高精度;3)與標準圖形框檢測相比,所提貝塞爾曲線檢測引入的計算開銷可忽略不計,從而使該方法在效率和準確性上均具優(yōu)勢。對任意形狀的基準數(shù)據(jù)集Total-Text和CTW1500進行的實驗表明,ABCNet達到當前最佳的準確性,同時顯著提高了速度,特別是在Total-Text上,ABCNet的實時版本比當前最佳方法快10倍以上,且在識別精度上極具競爭力。

今日 Paper | 動態(tài)圖像檢索;實時場景文本定位;感知場景表示;雙重網(wǎng)絡(luò)等
今日 Paper | 動態(tài)圖像檢索;實時場景文本定位;感知場景表示;雙重網(wǎng)絡(luò)等

  通過逐步增加蒙版區(qū)域來修復(fù)圖像

論文名稱:Learning to Inpaint by Progressively Growing the Mask Regions

作者:Hedjazi Mohamed Abbas /Genc Yakup

發(fā)表時間:2020/2/21

論文鏈接:https://paper.yanxishe.com/review/12259?from=leiphonecolumn_paperreview0303

推薦原因

這篇論文考慮的是圖像修復(fù)問題。

生成模型可以產(chǎn)生視覺上合理的圖像,但是隨著被遮擋區(qū)域的增大,以往的方法難以生成正確的結(jié)構(gòu)和顏色。這篇論文對這個問題引入了一種新的課程樣式訓練方法,在訓練時間內(nèi)逐漸增加遮罩區(qū)域的大小,而在測試時,用戶可以在任意位置給出隨機尺寸的遮罩。這種訓練方法可以使得生成對抗模型的訓練更加平穩(wěn),提供更好的顏色一致性并且捕捉對象的連續(xù)性。

今日 Paper | 動態(tài)圖像檢索;實時場景文本定位;感知場景表示;雙重網(wǎng)絡(luò)等
今日 Paper | 動態(tài)圖像檢索;實時場景文本定位;感知場景表示;雙重網(wǎng)絡(luò)等

  BlockGAN:從未標記的圖像中學習3D對象感知場景表示

論文名稱:BlockGAN: Learning 3D Object-aware Scene Representations from Unlabelled Images

作者:Nguyen-Phuoc Thu /Richardt Christian /Mai Long /Yang Yong-Liang /Mitra Niloy

發(fā)表時間:2020/2/20

論文鏈接:https://paper.yanxishe.com/review/12258?from=leiphonecolumn_paperreview0303

推薦原因

這篇論文提出了一個名為BlockGAN的圖像生成模型,可以直接從未標注的2D圖像中學習對象感知的3D場景表示。BlockGAN首先生成背景和前景對象的3D特征,然后將它們組合為整個場景的3D特征,最后將它們渲染為逼真的圖像。BlockGAN可以推理出對象的外觀(例如陰影和照明)之間的遮擋和交互作用,并提供對每個對象的3D姿勢和身份的控制,同時保持圖像的逼真度。BlockGAN的效果可以在項目主頁中查看。

今日 Paper | 動態(tài)圖像檢索;實時場景文本定位;感知場景表示;雙重網(wǎng)絡(luò)等
今日 Paper | 動態(tài)圖像檢索;實時場景文本定位;感知場景表示;雙重網(wǎng)絡(luò)等

  用于行人重識別的交叉分辨對抗性雙重網(wǎng)絡(luò)

論文名稱:Cross-Resolution Adversarial Dual Network for Person Re-Identification and Beyond

作者:Li Yu-Jhe /Chen Yun-Chun /Lin Yen-Yu /Wang Yu-Chiang Frank

發(fā)表時間:2020/2/19

論文鏈接:https://paper.yanxishe.com/review/12257?from=leiphonecolumn_paperreview0303

推薦原因

這篇論文要解決的是行人重識別問題。

考慮到真實場景中攝像機和目標人之間距離不同可能會帶來分辨率不匹配的情況,會降低行人重識別算法的表現(xiàn)。這篇論文提出了一種的新的生成對抗網(wǎng)絡(luò)來解決跨分辨率的行人重識別,可以學習分辨率不變的圖像表示,同時能恢復(fù)低分辨率輸入圖像丟失的細節(jié),共同用于改善重識別的性能。在五個標準行人重識別基準上的實驗結(jié)果證實了該方法的有效性,尤其是在訓練過程中不知道輸入分辨率的情況下。此外,兩個車輛重識別基準測試的實驗結(jié)果也證實了該模型在交叉分辨率視覺任務(wù)上的通用性。

今日 Paper | 動態(tài)圖像檢索;實時場景文本定位;感知場景表示;雙重網(wǎng)絡(luò)等
今日 Paper | 動態(tài)圖像檢索;實時場景文本定位;感知場景表示;雙重網(wǎng)絡(luò)等

  論文作者團隊招募

為了更好地服務(wù)廣大 AI 青年,AI 研習社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學生青年的「興趣點」,通過論文整理推薦、點評解讀、代碼復(fù)現(xiàn)。致力成為國內(nèi)外前沿研究成果學習討論和發(fā)表的聚集地,也讓優(yōu)秀科研得到更為廣泛的傳播和認可。

我們希望熱愛學術(shù)的你,可以加入我們的論文作者團隊。

加入論文作者團隊你可以獲得

    1.署著你名字的文章,將你打造成最耀眼的學術(shù)明星

    2.豐厚的稿酬

    3.AI 名企內(nèi)推、大會門票福利、獨家周邊紀念品等等等。

加入論文作者團隊你需要:

    1.將你喜歡的論文推薦給廣大的研習社社友

    2.撰寫論文解讀

如果你已經(jīng)準備好加入 AI 研習社的論文兼職作者團隊,可以添加運營小姐姐的微信(ID:julylihuaijiang),備注“論文兼職作者”

今日 Paper | 動態(tài)圖像檢索;實時場景文本定位;感知場景表示;雙重網(wǎng)絡(luò)等

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

相關(guān)文章:

今日 Paper | 自適應(yīng)次梯度法;多域聯(lián)合語義框架;無問答對分析;口語系統(tǒng)評價等

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

今日 Paper | 動態(tài)圖像檢索;實時場景文本定位;感知場景表示;雙重網(wǎng)絡(luò)等

分享:

編輯

聚焦數(shù)據(jù)科學,連接 AI 開發(fā)者。更多精彩內(nèi)容,請訪問:yanxishe.com
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說