丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能 正文
發(fā)私信給黃善清
發(fā)送

0

史上最全!歷年 CVPR 最佳論文盤(pán)點(diǎn)(2000 年——2018 年)

本文作者: 黃善清 編輯:汪思穎 2019-02-27 09:42
導(dǎo)語(yǔ):溫故而知新

雷鋒網(wǎng) AI 科技評(píng)論按:作為計(jì)算機(jī)視覺(jué)領(lǐng)域的頂級(jí)學(xué)術(shù)會(huì)議,CVPR 2019 近期公布了最終論文接收結(jié)果,引來(lái)學(xué)界密切關(guān)注。據(jù)悉,CVPR 2019 今年一共獲得 5165 篇有效提交論文,最終抉出了 1300 篇接收論文,接收率達(dá)到 25.2% 。

(接收論文列表:http://cvpr2019.thecvf.com/files/cvpr_2019_final_accept_list.txt

正當(dāng)學(xué)界紛紛議論各單位獲接收論文多寡的當(dāng)兒,雷鋒網(wǎng) AI 科技評(píng)論為大家精心整理了一份從 2000 年——2018 年的 CVPR 最佳論文清單,借此對(duì)這批計(jì)算機(jī)領(lǐng)域的重要論文進(jìn)行復(fù)習(xí)。

史上最全!歷年 CVPR 最佳論文盤(pán)點(diǎn)(2000 年——2018 年)

2018年最佳論文

任務(wù)學(xué):任務(wù)遷移學(xué)習(xí)的解耦

Taskonomy: Disentangling Task Transfer Learning

史上最全!歷年 CVPR 最佳論文盤(pán)點(diǎn)(2000 年——2018 年)

核心內(nèi)容:論文研究了一個(gè)非常新穎的課題,那就是研究視覺(jué)任務(wù)之間的關(guān)系,根據(jù)得出的關(guān)系可以幫助在不同任務(wù)之間做遷移學(xué)習(xí)。該論文提出了「Taskonomy」——一種完全計(jì)算化的方法,可以量化計(jì)算大量任務(wù)之間的關(guān)系,從它們之間提出統(tǒng)一的結(jié)構(gòu),并把它作為遷移學(xué)習(xí)的模型。實(shí)驗(yàn)設(shè)置上,作者首先找來(lái)一組一共 26 個(gè)任務(wù),當(dāng)中包括了語(yǔ)義、 2D、2.5D、3D 任務(wù),接著為任務(wù)列表里的這 26 個(gè)任務(wù)分別訓(xùn)練了 26 個(gè)任務(wù)專用神經(jīng)網(wǎng)絡(luò)。結(jié)果顯示,這些遷移后的模型的表現(xiàn)已經(jīng)和作為黃金標(biāo)準(zhǔn)的任務(wù)專用網(wǎng)絡(luò)的表現(xiàn)差不多好。論文提供了一套計(jì)算和探測(cè)相關(guān)分類(lèi)結(jié)構(gòu)的工具,其中包括一個(gè)求解器,用戶可以用它來(lái)為其用例設(shè)計(jì)有效的監(jiān)督策略。

論文鏈接:http://taskonomy.stanford.edu/taskonomy_CVPR2018.pdf

2017年最佳論文

密集連接的卷積網(wǎng)絡(luò)

Densely Connected Convolutional Networks

史上最全!歷年 CVPR 最佳論文盤(pán)點(diǎn)(2000 年——2018 年)

核心內(nèi)容:近期的研究已經(jīng)展現(xiàn)這樣一種趨勢(shì),如果卷積網(wǎng)絡(luò)中離輸入更近或者離輸出更近的層之間的連接更短,網(wǎng)絡(luò)就基本上可以更深、更準(zhǔn)確,訓(xùn)練時(shí)也更高效。這篇論文就對(duì)這種趨勢(shì)進(jìn)行了深入的研究,并提出了密集卷積網(wǎng)絡(luò)(DenseNet),其中的每一層都和它之后的每一層做前饋連接。對(duì)于以往的卷積神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)中的每一層都和其后的層連接,L 層的網(wǎng)絡(luò)中就具有 L 個(gè)連接;而在 DenseNet 中,直接連接的總數(shù)則是 L(L+1)/2 個(gè)。對(duì)每一層來(lái)說(shuō),它之前的所有的層的 feature-map 都作為了它的輸入,然后它自己的 feature-map 則會(huì)作為所有它之后的層的輸入。

論文鏈接:http://openaccess.thecvf.com/content_cvpr_2017/papers/Huang_Densely_Connected_Convolutional_CVPR_2017_paper.pdf

通過(guò)對(duì)抗訓(xùn)練從模擬的和無(wú)監(jiān)督的圖像中學(xué)習(xí)

Learning from Simulated and Unsupervised Images through Adversarial Training

史上最全!歷年 CVPR 最佳論文盤(pán)點(diǎn)(2000 年——2018 年)

核心內(nèi)容:隨著圖像領(lǐng)域的進(jìn)步,用生成的圖像訓(xùn)練機(jī)器學(xué)習(xí)模型的可行性越來(lái)越高,大有避免人工標(biāo)注真實(shí)圖像的潛力。但是,由于生成的圖像和真實(shí)圖像的分布有所區(qū)別,用生成的圖像訓(xùn)練的模型可能沒(méi)有用真實(shí)圖像訓(xùn)練的表現(xiàn)那么好。為了縮小這種差距,論文中提出了一種模擬+無(wú)監(jiān)督的學(xué)習(xí)方式,其中的任務(wù)就是學(xué)習(xí)到一個(gè)模型,它能夠用無(wú)標(biāo)注的真實(shí)數(shù)據(jù)提高模擬器生成的圖片的真實(shí)性,同時(shí)還能夠保留模擬器生成的圖片的標(biāo)注信息。論文中構(gòu)建了一個(gè)類(lèi)似于 GANs 的對(duì)抗性網(wǎng)絡(luò)來(lái)進(jìn)行這種模擬+無(wú)監(jiān)督學(xué)習(xí),只不過(guò)論文中網(wǎng)絡(luò)的輸入是圖像而不是隨機(jī)向量。為了保留標(biāo)注信息、避免圖像瑕疵、穩(wěn)定訓(xùn)練過(guò)程,論文中對(duì)標(biāo)準(zhǔn) GAN 算法進(jìn)行了幾個(gè)關(guān)鍵的修改,分別對(duì)應(yīng)「自我正則化」項(xiàng)、局部對(duì)抗性失真損失、用過(guò)往的美化后圖像更新鑒別器。

論文鏈接:http://openaccess.thecvf.com/content_cvpr_2017/papers/Shrivastava_Learning_From_Simulated_CVPR_2017_paper.pdf

2016年最佳論文

圖像識(shí)別的深度殘差學(xué)習(xí)

Deep Residual Learning for Image Recognition

史上最全!歷年 CVPR 最佳論文盤(pán)點(diǎn)(2000 年——2018 年)

核心內(nèi)容:在現(xiàn)有基礎(chǔ)下,想要進(jìn)一步訓(xùn)練更深層次的神經(jīng)網(wǎng)絡(luò)是非常困難的。我們提出了一種減輕網(wǎng)絡(luò)訓(xùn)練負(fù)擔(dān)的殘差學(xué)習(xí)框架,這種網(wǎng)絡(luò)比以前使用過(guò)的網(wǎng)絡(luò)本質(zhì)上層次更深。我們明確地將這層作為輸入層相關(guān)的學(xué)習(xí)殘差函數(shù),而不是學(xué)習(xí)未知的函數(shù)。同時(shí),我們提供了全面實(shí)驗(yàn)數(shù)據(jù),這些數(shù)據(jù)證明殘差網(wǎng)絡(luò)更容易優(yōu)化,并且可以從深度增加中大大提高精度。我們?cè)?ImageNet 數(shù)據(jù)集用 152 層--比 VGG 網(wǎng)絡(luò)深 8 倍的深度來(lái)評(píng)估殘差網(wǎng)絡(luò),但它仍具有較低的復(fù)雜度。在 ImageNet 測(cè)試集中,這些殘差網(wǎng)絡(luò)整體達(dá)到了 3.57% 的誤差。該結(jié)果在 2015 年大規(guī)模視覺(jué)識(shí)別挑戰(zhàn)賽分類(lèi)任務(wù)中贏得了第一。此外,我們還用了 100 到 1000 層深度分析了的 CIFAR-10。

對(duì)于大部分視覺(jué)識(shí)別任務(wù),深度表示是非常重要的。僅由于極深的表示,在 COCO 對(duì)象檢查數(shù)據(jù)時(shí),我們就得到了近 28% 相關(guān)的改進(jìn)。深度剩余網(wǎng)絡(luò)是我們提交給 ILSVRC 和 COCO2015 競(jìng)賽的基礎(chǔ),而且在 ImageNet 檢測(cè)任務(wù),ImageNet 定位,COCO 檢測(cè)和 COCO 分割等領(lǐng)域贏我們獲得了第一。

論文鏈接:https://www.cv-foundation.org/openaccess/content_cvpr_2016/papers/He_Deep_Residual_Learning_CVPR_2016_paper.pdf

2015年最佳論文

動(dòng)態(tài)融合:實(shí)時(shí)非剛性場(chǎng)景的重建與跟蹤

DynamicFusion: Reconstruction and Tracking of Non-rigid Scenes in Real-Time

史上最全!歷年 CVPR 最佳論文盤(pán)點(diǎn)(2000 年——2018 年)

核心內(nèi)容:作者提出第一個(gè)結(jié)合商用傳感器對(duì) RGBD 掃描結(jié)果進(jìn)行捕獲,該結(jié)果可實(shí)時(shí)重建非剛性變形場(chǎng)景的密集 SLAM 系統(tǒng)。被稱作 DynamicFusion 的這種方法在重建場(chǎng)景幾何的當(dāng)兒,還能同時(shí)估算一個(gè)密集體積的 6D 運(yùn)動(dòng)場(chǎng)景,并將估算結(jié)果變成實(shí)時(shí)框架。與 KinectFusion 一樣,該系統(tǒng)可以生成越來(lái)越多去噪、保留細(xì)節(jié)、結(jié)合多種測(cè)量的完整重建結(jié)果,并實(shí)時(shí)顯示最新的模型。由于該方法無(wú)需基于任何模板或過(guò)往的場(chǎng)景模型,因此適用于大部分的移動(dòng)物體和場(chǎng)景。

論文鏈接:https://rse-lab.cs.washington.edu/papers/dynamic-fusion-cvpr-2015.pdf

2014年最佳論文

關(guān)于未知雙向反射分布函數(shù),攝像機(jī)運(yùn)動(dòng)揭示了什么

What Object Motion Reveals About Shape With Unknown BRDF and Lighting

史上最全!歷年 CVPR 最佳論文盤(pán)點(diǎn)(2000 年——2018 年)

核心內(nèi)容:作者提出了一種理論,用于解決在未知遠(yuǎn)距離照明以及未知各向同性反射率下,運(yùn)動(dòng)物體的形狀識(shí)別問(wèn)題,無(wú)論是正交投影還是穿透投影。該理論對(duì)表面重建硬度增加了基本限制,與涉及的方法無(wú)關(guān)。在正交投影場(chǎng)景下,三個(gè)微分運(yùn)動(dòng)在不計(jì) BRDF 和光照的情況下,可以產(chǎn)生一個(gè)將形狀與圖像導(dǎo)數(shù)聯(lián)系起來(lái)的不變量。而在透視投影場(chǎng)景下,四個(gè)微分運(yùn)動(dòng)在面對(duì)未知的 BRDF 與光照情況,可以產(chǎn)生基于表面梯度的線性約束。此外,論文也介紹了通過(guò)不變量實(shí)現(xiàn)重建的拓?fù)漕?lèi)。

最后,論文推導(dǎo)出一種可以將形狀恢復(fù)硬度與場(chǎng)景復(fù)雜性聯(lián)系起來(lái)的通用分層。從定性角度來(lái)說(shuō),該不變量分別是用于簡(jiǎn)單照明的均勻偏微分方程,以及用于復(fù)雜照明的非均勻方程。從數(shù)量角度來(lái)說(shuō),該框架表明需要更多的最小運(yùn)動(dòng)次數(shù)來(lái)處理更復(fù)雜場(chǎng)景的形狀識(shí)別問(wèn)題。關(guān)于先前假設(shè)亮度恒定的工作,無(wú)論是 Lambertian BRDF 還是已知定向光源,一律被被當(dāng)作是分層的特殊情況。作者利用合成與真實(shí)數(shù)據(jù)進(jìn)一步說(shuō)明了重建方法可以如何更好地利用這些框架。

論文鏈接:https://cseweb.ucsd.edu/~ravir/differentialtheory.pdf

2013年最佳論文

在單個(gè)機(jī)器上快速、準(zhǔn)確地對(duì)100,000個(gè)物體類(lèi)別進(jìn)行檢測(cè)

Fast, Accurate Detection of 100,000 Object Classes on a Single Machine

史上最全!歷年 CVPR 最佳論文盤(pán)點(diǎn)(2000 年——2018 年)

核心內(nèi)容:許多物體檢測(cè)系統(tǒng)受到將目標(biāo)圖像與過(guò)濾器結(jié)合進(jìn)行卷積所需時(shí)間的約束,這些過(guò)濾器從不同的角度對(duì)物件的外表(例如物體組件)進(jìn)行編碼。作者利用局部敏感散列這點(diǎn),將卷積中的點(diǎn)積內(nèi)核運(yùn)算符替換為固定數(shù)量的散列探測(cè)器,這些探測(cè)器可以在無(wú)視濾波器組大小情況下,及時(shí)、有效地對(duì)所有濾波器響應(yīng)進(jìn)行采樣。

為了向大家展示技術(shù)的有效性,作者將其用于評(píng)估 100,000 組可變形零件模型,模型將根據(jù)目標(biāo)圖像的多個(gè)維度需要運(yùn)用超過(guò)一百萬(wàn)個(gè)濾波器,作者需在 20 秒內(nèi)通過(guò) 20GB RAM 的單個(gè)多核處理器來(lái)達(dá)成評(píng)估目標(biāo)。實(shí)驗(yàn)結(jié)果顯示,與其他同樣硬件配置下執(zhí)行卷積的系統(tǒng)相比,該模型獲得了大約 20,000 倍的提速 - 相等于四個(gè)量級(jí)。模型在針對(duì) 100,000 個(gè)物體類(lèi)別的平均精確度達(dá)到了 0.16,主要因?yàn)樵谟?xùn)練數(shù)據(jù)與基本實(shí)施的收集上面臨挑戰(zhàn),最終模型在三分之一類(lèi)別上實(shí)現(xiàn)至少 0.20 的 mAP,另外在大約 20%的類(lèi)別上實(shí)現(xiàn) 0.30 或更高的 mAP。

論文鏈接:https://www.cv-foundation.org/openaccess/content_cvpr_2013/papers/Dean_Fast_Accurate_Detection_2013_CVPR_paper.pdf

2012年最佳論文

一個(gè)針對(duì)基于活動(dòng)分解非剛性結(jié)構(gòu)的簡(jiǎn)單、無(wú)先驗(yàn)方法

A Simple Prior-free Method for Non-Rigid Structure-from-Motion Factorization

史上最全!歷年 CVPR 最佳論文盤(pán)點(diǎn)(2000 年——2018 年)

核心內(nèi)容:作者提出一種簡(jiǎn)單的「無(wú)先驗(yàn)」方法來(lái)解決非剛性結(jié)構(gòu)的運(yùn)動(dòng)因子分解問(wèn)題。除了基本的低秩條之外,該方法無(wú)需任何關(guān)于非剛性場(chǎng)景或相機(jī)運(yùn)動(dòng)的先驗(yàn)知識(shí)。即便如此,它依然得以穩(wěn)定運(yùn)行,并產(chǎn)生最佳結(jié)果,且不受許多傳統(tǒng)非剛性分解技術(shù)的基礎(chǔ) - 模糊性問(wèn)題(basis-ambiguity issue)困擾。

該方法易于實(shí)現(xiàn),可以解決包括小型與固定大小的 SDP(半定規(guī)劃)、線性最小二乘或范數(shù)最小化追蹤等問(wèn)題。大量實(shí)驗(yàn)結(jié)果表明,該方法優(yōu)于現(xiàn)有的多數(shù)非剛性因子分解線性方法。本論文不僅提供全新的理論見(jiàn)解,同時(shí)提供了一種適用于非剛性結(jié)構(gòu)運(yùn)動(dòng)分解的實(shí)用日常解決方案。

論文鏈接:http://users.cecs.anu.edu.au/~hongdong/CVPR12_Nonrigid_CRC_17_postprint.pdf

2011年最佳論文

針對(duì)單個(gè)深度圖像部件的實(shí)時(shí)人體姿態(tài)識(shí)別模型

Real-Time Human Pose Recognition in Parts from Single Depth Images

史上最全!歷年 CVPR 最佳論文盤(pán)點(diǎn)(2000 年——2018 年)

核心內(nèi)容:作者提出一種可以基于無(wú)時(shí)間信息從單個(gè)深度圖像中快速、準(zhǔn)確預(yù)測(cè)身體關(guān)節(jié) 3D 位置的方法。通過(guò)采用物體識(shí)別方法設(shè)計(jì)出身體部位的間接表示,進(jìn)而將有難度的姿勢(shì)估計(jì)問(wèn)題映射為簡(jiǎn)單的每像素分類(lèi)問(wèn)題。作者同通過(guò)龐大、多樣化的訓(xùn)練數(shù)據(jù)集,讓分類(lèi)器可以針對(duì)身體部位的姿勢(shì)、身體形狀、衣服等不變量進(jìn)行預(yù)估,進(jìn)而通過(guò)重新投影分類(lèi)結(jié)果找到局部模式,最終生成具有置信度的身體關(guān)節(jié) 3D 建模。

該系統(tǒng)能在消費(fèi)類(lèi)硬件上以每秒 200 幀的速度運(yùn)行。評(píng)估系統(tǒng)在合成與實(shí)際測(cè)試集的處理結(jié)果中顯示了高精度,并分析了幾個(gè)訓(xùn)練參數(shù)對(duì)此的影響。與相關(guān)工作相比,該模型實(shí)現(xiàn)了目前最先進(jìn)的精度,并在全骨架最近鄰匹配上有了很大進(jìn)步。

論文鏈接:https://www.microsoft.com/en-us/research/wp-content/uploads/2016/02/BodyPartRecognition.pdf

2010年最佳論文

利用L1范數(shù)對(duì)數(shù)據(jù)缺失的魯棒低秩近似矩陣進(jìn)行有效計(jì)算

Efficient Computation of Robust Low-Rank Matrix Approximations in the Presence of Missing Data using the L1 Norm

史上最全!歷年 CVPR 最佳論文盤(pán)點(diǎn)(2000 年——2018 年)

核心內(nèi)容:低秩近似矩陣計(jì)算是許多計(jì)算機(jī)視覺(jué)應(yīng)用中的基礎(chǔ)操作。這類(lèi)問(wèn)題的主力解決方案一直是奇異值分解(Singular Value Decomposition)。一旦存在數(shù)據(jù)缺失和異常值,該方法將不再適用,遺憾的是,我們經(jīng)常在實(shí)踐中遇到這種情況。

論文提出了一種計(jì)算矩陣的低秩分解法,一旦丟失數(shù)據(jù)時(shí)會(huì)主動(dòng)最小化 L1 范數(shù)。該方法是 Wiberg 算法的代表——在 L2 規(guī)范下更具說(shuō)服力的分解方法之一。通過(guò)利用線性程序的可區(qū)分性,可以對(duì)這種方法的基本思想進(jìn)行擴(kuò)展,進(jìn)而包含 L1 問(wèn)題。結(jié)果表明,現(xiàn)有的優(yōu)化軟件可以有效實(shí)現(xiàn)論文提出的算法。論文提供了令人信服、基于合成與現(xiàn)實(shí)數(shù)據(jù)的初步實(shí)驗(yàn)結(jié)果。

論文鏈接:https://acvtech.files.wordpress.com/2010/06/robustl1_eriksson.pdf

2009年最佳論文

暗通道先驗(yàn)去霧法

Single Image Haze Removal Using Dark Channel Prior

史上最全!歷年 CVPR 最佳論文盤(pán)點(diǎn)(2000 年——2018 年)

核心內(nèi)容:本文中提出了一個(gè)簡(jiǎn)單卻有效、針對(duì)單個(gè)輸入圖像的暗通道去霧法。暗通道先驗(yàn)去霧法是一種戶外去霧圖像的統(tǒng)計(jì)方法,它主要基于一個(gè)關(guān)鍵的觀察——室外無(wú)霧圖像中的大多數(shù)局部斑塊包含一些像素,這些像素的強(qiáng)度起碼有一個(gè)顏色通道處于低狀態(tài)。使用這種基于霧度成像模型的先驗(yàn)方法,我們可以直接估計(jì)圖像的霧霾厚度,借此將圖像恢復(fù)至高質(zhì)量的無(wú)霧狀態(tài)。各種模糊圖像的去霧結(jié)果證明了論文所提出先驗(yàn)方法的成效。此外,我們可以通過(guò)該方法獲得高質(zhì)量的深度圖。

論文鏈接:http://www.jiansun.org/papers/Dehaze_CVPR2009.pdf

2008年最佳論文

二階平滑先驗(yàn)下的全局立體重建

Global Stereo Reconstruction under Second Order Smoothness Priors

史上最全!歷年 CVPR 最佳論文盤(pán)點(diǎn)(2000 年——2018 年)

核心內(nèi)容:3D 曲面平滑度中的二階先驗(yàn)是比一階先驗(yàn)更好的典型場(chǎng)景模型。然而,基于全局推理算法(如圖形切割)的二階平滑先驗(yàn)法未能與二階先驗(yàn)很好地進(jìn)行結(jié)合,因?yàn)楸磉_(dá)所需的三重集會(huì)產(chǎn)生難以處理的(非子模塊)優(yōu)化問(wèn)題。

本文表明三重集的推理可以獲得有效的優(yōu)化。作者提出的優(yōu)化策略是基于 α 擴(kuò)展的最新研究結(jié)果,源自「QPBO」算法。該策略通過(guò) QPBO 算法的最新擴(kuò)展對(duì)提議深度圖進(jìn)行重復(fù)合并。對(duì)于提案深度圖的來(lái)源并不受局限,比如可以是α擴(kuò)展的前平行平面,亦或者帶有任意參數(shù)設(shè)置的實(shí)際立體算法。最終實(shí)驗(yàn)結(jié)果證明了二階先驗(yàn)法以及框架優(yōu)化策略的有效性。

論文鏈接:http://www.robots.ox.ac.uk/~ojw/2op/Woodford08.pdf

超越滑動(dòng)窗口:利用高效子窗口搜索實(shí)現(xiàn)對(duì)象定位

Beyond Sliding Windows: Object Localization by Efficient Subwindow Search

史上最全!歷年 CVPR 最佳論文盤(pán)點(diǎn)(2000 年——2018 年)

核心內(nèi)容:大部分有效的物體識(shí)別系統(tǒng)都依賴于二進(jìn)制分類(lèi),不過(guò)這種方法只能確認(rèn)物體是否存在,而無(wú)法提供物體的實(shí)際位置。為了實(shí)現(xiàn)物體定位功能,我們可以考慮采用滑動(dòng)窗口法,然而這將大大增加計(jì)算成本,因?yàn)楸仨氃诖罅康暮蜻x子窗口上進(jìn)行分類(lèi)器函數(shù)評(píng)估。

為此,論文提出了一種簡(jiǎn)單而強(qiáng)大的分支界定方案,可以在所有可能子圖像上有效最大化大類(lèi)分類(lèi)器函數(shù)。它在次線性時(shí)間內(nèi)提供基于全局最優(yōu)解的收斂方案。論文展示了該方法如何適用于不同的檢測(cè)對(duì)象與場(chǎng)景。該方案實(shí)現(xiàn)的加速效果允許使用類(lèi)似具有空間金字塔內(nèi)核的 SVMs 或者基于χ2-距離的最近鄰分類(lèi)器來(lái)進(jìn)行物體定位,而在過(guò)去,這些分類(lèi)器被認(rèn)為在處理相關(guān)任務(wù)時(shí)的速度太慢了。該方案在 UIUC 車(chē)輛數(shù)據(jù)集、PASCAL VOC 2006 數(shù)據(jù)集以及 PASCAL VOC 2007 競(jìng)賽中均取得了最先進(jìn)的結(jié)果。

論文鏈接:https://static.googleusercontent.com/media/research.google.com/zh-CN//pubs/archive/34843.pdf

2007年最佳論文

在移動(dòng)工具中進(jìn)行動(dòng)態(tài)三維場(chǎng)景分析

Dynamic 3D Scene Analysis from a Moving Vehicle

史上最全!歷年 CVPR 最佳論文盤(pán)點(diǎn)(2000 年——2018 年)

核心內(nèi)容:論文提出一個(gè)集成了全自動(dòng)場(chǎng)景幾何估計(jì)、2D 物體檢測(cè)、3D 定位、軌跡估計(jì)和跟蹤功能的系統(tǒng),以用于分析移動(dòng)工具的動(dòng)態(tài)場(chǎng)景。該系統(tǒng)的唯一輸入來(lái)源是汽車(chē)頂部經(jīng)過(guò)校準(zhǔn)的立體裝置。從這些視頻流中,我們得以實(shí)時(shí)估計(jì) Structurefrom-Motion(SfM)和場(chǎng)景幾何。與此同時(shí),作者還試圖執(zhí)行多視圖/多類(lèi)別對(duì)象識(shí)別,以檢測(cè)攝像里的汽車(chē)和行人。

通過(guò) SfM 自定位系統(tǒng),我們可以將檢測(cè)到的 2D 對(duì)象轉(zhuǎn)換為 3D 成像,并在真實(shí)世界的坐標(biāo)系中持續(xù)累積。隨后跟蹤模塊將對(duì) 3D 觀測(cè)結(jié)果進(jìn)行分析,進(jìn)而找到跟物理空間吻合的時(shí)空軌跡。最后,全局優(yōu)化標(biāo)準(zhǔn)會(huì)將對(duì)象 - 對(duì)象交互(object-object interactions)考慮在內(nèi),以獲得精確的汽車(chē)和行人的 3D 定位和軌跡預(yù)估結(jié)果。論文展示了該集成系統(tǒng)在挑戰(zhàn)真實(shí)世界數(shù)據(jù)方面的表現(xiàn),該數(shù)據(jù)集顯示了擁堵市區(qū)內(nèi)的汽車(chē)行駛情況。

文鏈接:https://homes.esat.kuleuven.be/~konijn/publications/2007/00483.pdf

2006年最佳論文

在透視場(chǎng)景中放置物體

Putting Objects in Perspective

史上最全!歷年 CVPR 最佳論文盤(pán)點(diǎn)(2000 年——2018 年)

核心內(nèi)容:圖像理解不僅需要考慮視覺(jué)世界中的元素,還需要考慮這些元素之間的相互作用。本文提出了一個(gè)在 3D 場(chǎng)景語(yǔ)境中進(jìn)行局部對(duì)象檢測(cè)的框架,該框架主要基于物體、表面方向以及攝像機(jī)視點(diǎn)的相互作用。

大多數(shù)物體檢測(cè)方法會(huì)考慮圖像的比例和位置。通過(guò)對(duì) 3D 幾何進(jìn)行概率預(yù)估(包括表面以及世界坐標(biāo)),我們可以將物體放置在透視圖中,進(jìn)而對(duì)圖像的比例和位置變化進(jìn)行建模。該方法通過(guò)對(duì)物體概率進(jìn)行假設(shè)以細(xì)化幾何,借此反映問(wèn)題的周期性,反之亦然。該框架允許任意物體探測(cè)器進(jìn)行「無(wú)痛」替換,且便于擴(kuò)展至包括圖像理解在內(nèi)的其他方面。最終實(shí)驗(yàn)結(jié)果證實(shí)該綜合方法的優(yōu)勢(shì)。

論文鏈接:http://dhoiem.cs.illinois.edu/publications/hoiem_cvpr06.pdf

2005年最佳論文

實(shí)時(shí)非剛性表面檢測(cè)

Real-Time Non-Rigid Surface Detection

史上最全!歷年 CVPR 最佳論文盤(pán)點(diǎn)(2000 年——2018 年)

核心內(nèi)容:論文提出一種無(wú)需任何先驗(yàn)知識(shí)、可實(shí)時(shí)檢測(cè)變形表面的方法。該方法從一組寬基線點(diǎn)開(kāi)始,在物體未變形圖像及檢測(cè)圖像之間進(jìn)行匹配。該匹配不僅可用于檢測(cè),同時(shí)還可以用來(lái)計(jì)算點(diǎn)與點(diǎn)之間的精確映射。該算法在面對(duì)嚴(yán)重變形、光照變化、運(yùn)動(dòng)模糊以及遮擋問(wèn)題時(shí)具有魯棒性。它在 2.8 GHz 的 PC 上以每秒 10 幀的速度運(yùn)行,據(jù)作者了解,尚未有其他產(chǎn)生類(lèi)似結(jié)果的技術(shù)。

將可變形網(wǎng)格與設(shè)計(jì)良好的魯邦性估計(jì)器進(jìn)行結(jié)合,是該方法得以處理涉及大量參數(shù)的可變形表面建模,且獲得高達(dá) 95% 避免錯(cuò)誤匹配率的關(guān)鍵,遠(yuǎn)遠(yuǎn)超過(guò)了實(shí)際要求。

論文鏈接:https://infoscience.epfl.ch/record/128408/files/PiletLF05.pdf

2004年最佳論文

使用電子微鏡陣列實(shí)現(xiàn)可編程的圖像創(chuàng)建

Programmable Imaging using a Digital Micromirror Array

史上最全!歷年 CVPR 最佳論文盤(pán)點(diǎn)(2000 年——2018 年)

核心內(nèi)容:論文介紹了可編程成像系統(tǒng)的概念。該成像系統(tǒng)為人類(lèi)或視覺(jué)系統(tǒng)提供了對(duì)系統(tǒng)輻射度與幾何特征的控制方法。該靈活性是通過(guò)可編程微鏡陣列才得以實(shí)現(xiàn)的。我們可以通過(guò)把控空間和時(shí)間上的高精度來(lái)控制陣列方向,使得系統(tǒng)可以根據(jù)應(yīng)用需要來(lái)靈活選擇并調(diào)制光線。

作者成功實(shí)現(xiàn)了一種基于數(shù)字微鏡裝置(DMD)的可編程成像系統(tǒng),用于處理數(shù)字光。雖然設(shè)備的鏡像只能置于兩個(gè)鏡頭中的一個(gè),結(jié)果卻表明該系統(tǒng)可以實(shí)現(xiàn)各種成像功能,其中包括高動(dòng)態(tài)范圍成像、特征檢測(cè)以及物體識(shí)別。論文在最后探討了如何在無(wú)需動(dòng)用移動(dòng)部件情況下,使用微鏡陣列進(jìn)行視場(chǎng)控制。

論文鏈接:https://www.researchgate.net/publication/4082198_Programmable_imaging_using_a_digital_micromirror_array

2003年最佳論文

使用尺度無(wú)關(guān)的無(wú)監(jiān)督學(xué)習(xí)實(shí)現(xiàn)物體類(lèi)型識(shí)別

Object Class Recognition by Unsupervised Scale-Invariant Learning

史上最全!歷年 CVPR 最佳論文盤(pán)點(diǎn)(2000 年——2018 年)

核心內(nèi)容:論文提出一種通過(guò)尺度不變方法(scale invariant manner)從未標(biāo)記、未分段的雜亂場(chǎng)景中學(xué)習(xí)并識(shí)別物體類(lèi)模型的方法。這些物體被建模成靈活性的系列部件。概率表示方法被用于識(shí)別物體的所有方面,包括形狀、外觀、遮擋物以及相對(duì)比例?;陟氐奶卣鳈z測(cè)器則用于對(duì)圖像內(nèi)的區(qū)域及其比例做選擇。在這過(guò)程中,尺度不變對(duì)象模型的參數(shù)將被模型預(yù)估,這是通過(guò)最大似然設(shè)置(maximum-likelihood setting)中的期望最大化(expectation-maximization)來(lái)完成的。該模型基于貝葉斯方式對(duì)圖像進(jìn)行分類(lèi)。通過(guò)一系列在幾何約束類(lèi)(例如面部,汽車(chē))和柔性物體(例如動(dòng)物)數(shù)據(jù)集上取得的優(yōu)異結(jié)果,證明了該模型的靈活性。

論文鏈接:https://cs.nyu.edu/~fergus/papers/fergus03.pdf

2001年最佳論文

視頻中的形變?nèi)S模型

Morphable 3D models from video

史上最全!歷年 CVPR 最佳論文盤(pán)點(diǎn)(2000 年——2018 年)

核心內(nèi)容:非剛性運(yùn)動(dòng) 3D 結(jié)構(gòu) 和 2D 光流被認(rèn)為是張量分解領(lǐng)域的問(wèn)題。通過(guò)嘈雜仿射變換方法,我們可以將這兩者問(wèn)題變?yōu)榻M合非剛性結(jié)構(gòu)強(qiáng)度問(wèn)題,進(jìn)而使用結(jié)構(gòu)化矩陣分解方法進(jìn)行解決。然而,圖像噪聲及數(shù)據(jù)缺陷將導(dǎo)致該因式分解法的前提條件無(wú)法成立。即便如此,我們依然可以通過(guò)等級(jí)約束、范數(shù)約束以及強(qiáng)度值來(lái)解決這兩個(gè)問(wèn)題,進(jìn)而產(chǎn)生針對(duì)不確定性 SVD、不確定性分解、非剛性因子分解以及子空間光流的全新解決方案。最終獲得的集成算法可以跟蹤以及進(jìn)行 3D 重建具有細(xì)小紋理的非剛性表面,比如具有平滑部分的面部。通過(guò)結(jié)合低分辨率低紋理的「視頻發(fā)現(xiàn)」,這些方法可以產(chǎn)生良好的跟蹤與 3D 重建結(jié)果。

論文鏈接:http://www.merl.com/publications/docs/TR2001-37.pdf

2000年最佳論文

運(yùn)用均值漂移實(shí)現(xiàn)對(duì)非剛性物體的實(shí)時(shí)追蹤

Real-Time Tracking of Non-Rigid Objects using Mean Shift

史上最全!歷年 CVPR 最佳論文盤(pán)點(diǎn)(2000 年——2018 年)

核心內(nèi)容:論文提出一種可以從移動(dòng)攝像機(jī)實(shí)時(shí)追蹤非剛性物體的全新方法。中央計(jì)算模塊將基于均值漂移以及當(dāng)前幀中的目標(biāo)可能位置進(jìn)行運(yùn)算。目標(biāo)模型(顏色分布)與目標(biāo)候選者之間的差異由 Bhattacharyya 系數(shù)進(jìn)行表示。該方法的理論分析表明,它與貝葉斯框架息息相關(guān),同時(shí)提供了實(shí)用、快速且有效的解決方案。針對(duì)多個(gè)圖像序列的演示結(jié)果,展示了該方法跟蹤并處理實(shí)時(shí)部分遮擋、顯著雜波以及目標(biāo)比例變化的能力。

論文鏈接:http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.28.41&rep=rep1&type=pdf

雷鋒網(wǎng) AI 科技評(píng)論                                                                               

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。

史上最全!歷年 CVPR 最佳論文盤(pán)點(diǎn)(2000 年——2018 年)

分享:
相關(guān)文章
當(dāng)月熱門(mén)文章
最新文章
請(qǐng)?zhí)顚?xiě)申請(qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)