0
本文作者: AI研習社 | 2020-03-09 15:40 |
多軌跡預測研究
針對VI-ReID的分層跨模態(tài)行人在識別
3DMM 人臉模型:從過去到現(xiàn)在到未來
一種基于U-Net的生成性對抗網(wǎng)絡判別器
用于圖像描述的交叉模態(tài)信息的探索和蒸餾
論文名稱:The Garden of Forking Paths: Towards Multi-Future Trajectory Predictio
作者:Junwei Liang
發(fā)表時間:2020/2/1
論文鏈接:https://paper.yanxishe.com/review/13151?from=leiphonecolumn_paperreview0309
推薦原因
研究意義:
軌跡預測問題是目前AI方向研究的一個熱點問題?;诖?,本文利用多種不同軌跡類型研究了如何高效準確的預測出路徑的可能分布,從而有助于未來在多目標預測方面的研究和應用。
創(chuàng)新點:
1、創(chuàng)建了一個基于我們現(xiàn)實世界中軌跡數(shù)據(jù)的3D模擬器數(shù)據(jù)集;
2、作者提出了一種新的模型,記為Multiverse,該模型可以準確地用于多軌跡預測。
論文名稱:Hi-CMD:HierarchicalCross-ModalityDisentanglementforVisible-Infrared PersonRe-Identi?cation
作者:Seokeon Choi
發(fā)表時間:2020/2/1
論文鏈接:https://paper.yanxishe.com/review/13150?from=leiphonecolumn_paperreview0309
推薦原因
研究意義:通過對夜間視頻的監(jiān)控進行跨模態(tài)行人識別是當下ReID方向的一個的難點,目前已經(jīng)受到學術(shù)界的廣泛關(guān)注。在此背景下,作者提出了一種分層跨模態(tài)行人識別(Hi-CMD)方法。為了實現(xiàn)該方法,作者引入了ID-preserving圖像的生成網(wǎng)絡和層次特征學習模塊,通過這種網(wǎng)絡結(jié)構(gòu)可有效的解決行人在不同姿勢和照明條件下進行ReID任務。
文章的創(chuàng)新點
1、提出了種一種新穎的VI-ReID行人跨模態(tài)識別方法:Hi-CMD,與傳統(tǒng)的模型方法相比,該模型通過區(qū)分ID-discriminative和可見紅外圖像中的ID-excluded兩種因素,有效地減少了跨模態(tài)和模態(tài)內(nèi)的差異。
2、利用ID-PIG網(wǎng)絡,避免可能因訓練數(shù)據(jù)不足而帶來的問題。
論文名稱:3D Morphable Face Models -- Past, Present and Future
作者:Bernhard Egger / William A. P. Smith / Ayush Tewari / Stefanie Wuhrer / Michael Zollhoefer / Thabo Beeler / Florian Bernard / Timo Bolkart / Adam Kortylewski / Sami Romdhani / Christian Theobalt / Volker Blanz / Thomas Vetter
發(fā)表時間:2019/9/3
論文鏈接:https://paper.yanxishe.com/review/12956?from=leiphonecolumn_paperreview0309
推薦原因
文章詳細介紹了 3DMM 人臉模型自20多年前提出至今以來的發(fā)展,是一篇非常全面非常優(yōu)秀的綜述文章,作者都是由該領(lǐng)域的前沿學者。
雖然已經(jīng)提出有20多年,但 3DMM 模型的構(gòu)建和應用,如捕捉、建模、圖像合成和分析等等,仍然存在眾多挑戰(zhàn),是一個非?;钴S的研究主題,文章回顧了這些領(lǐng)域中的最新技術(shù),在最后進一步進行了展望,提出了一些挑戰(zhàn),為未來的研究提供了一些方向,并強調(diào)了當前和未來的一些應用。
強烈建議相關(guān)專業(yè)學生和老師仔細研讀,是一個不可多得的 3DMM 人臉模型的綜述文章。
論文名稱:A U-Net Based Discriminator for Generative Adversarial Networks
作者:Sch?nfeld Edgar /Schiele Bernt /Khoreva Anna
發(fā)表時間:2020/2/28
論文鏈接:https://paper.yanxishe.com/review/12959?from=leiphonecolumn_paperreview0309
推薦原因
這篇論文被CVPR 2020接收,提出了一種基于U-Net的判別器架構(gòu),在保持合成圖像的全局一致性的同時,向生成器提供詳細的每像素反饋。在判別器的每像素響應支持下,這篇論文進一步提出一種基于CutMix數(shù)據(jù)增強的逐像素一致性正則化技術(shù),鼓勵U-Net判別器更多關(guān)注真實圖像與偽圖像之間的語義和結(jié)構(gòu)變化,不僅改善了U-Net判別器的訓練,還提高了生成樣本的質(zhì)量。新判別器在標準分布和圖像質(zhì)量指標方面改進了現(xiàn)有技術(shù),使生成器能夠合成具有變化結(jié)構(gòu)、外觀和詳細程度的圖像,并保持全局和局部真實感。與BigGAN基線模型相比,所提方法在FFHQ、CelebA和COCO-Animals數(shù)據(jù)集上平均提高了2.7個FID點。
論文名稱:Exploring and Distilling Cross-Modal Information for Image Captioning
作者:Liu Fenglin /Ren Xuancheng /Liu Yuanxin /Lei Kai /Sun Xu
發(fā)表時間:2020/2/28
論文鏈接:https://paper.yanxishe.com/review/12958?from=leiphonecolumn_paperreview0309
推薦原因
這篇論文要解決的是圖像描述任務。
這篇論文認為圖像理解需要相關(guān)區(qū)域的視覺注意力信息和對應感興趣的屬性的語義注意力信息。為進行有效的注意力捕獲,這篇論文從交互模態(tài)的角度探索圖像描述任務,并提出全局局部信息探索與蒸餾方法,同時以視覺的和語言的方式探索并提取原始信息。通過提取顯著區(qū)域群組以及屬性的搭配信息,新方法在全局參考基于字幕上下文的圖像空間和關(guān)系表示,在局部提取細粒度區(qū)域和屬性以進行單詞選擇。這篇論文所提的全注意力模型在離線COCO評估中獲得129.3的CIDEr評分,在準確性、速度和參數(shù)量方面均具有優(yōu)勢。
為了更好地服務廣大 AI 青年,AI 研習社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學生青年的「興趣點」,通過論文整理推薦、點評解讀、代碼復現(xiàn)。致力成為國內(nèi)外前沿研究成果學習討論和發(fā)表的聚集地,也讓優(yōu)秀科研得到更為廣泛的傳播和認可。
我們希望熱愛學術(shù)的你,可以加入我們的論文作者團隊。
加入論文作者團隊你可以獲得
1.署著你名字的文章,將你打造成最耀眼的學術(shù)明星
2.豐厚的稿酬
3.AI 名企內(nèi)推、大會門票福利、獨家周邊紀念品等等等。
加入論文作者團隊你需要:
1.將你喜歡的論文推薦給廣大的研習社社友
2.撰寫論文解讀
如果你已經(jīng)準備好加入 AI 研習社的論文兼職作者團隊,可以添加運營小姐姐的微信(ID:julylihuaijiang),備注“論文兼職作者”
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | 4D關(guān)聯(lián)圖;通用表征學習;元轉(zhuǎn)移學習;無偏場景圖生成等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。