丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能 正文
發(fā)私信給camel
發(fā)送

0

劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017

本文作者: camel 編輯:郭奕欣 2017-10-14 08:06
導(dǎo)語:這個(gè)會(huì)議很讓人喜歡,不大不小,很專注,來的都是高手。

雷鋒網(wǎng)AI科技評(píng)論按,繼上次分享了3DV 2017國際會(huì)議首日的報(bào)告內(nèi)容之后,我們?cè)诒疚膶⒗^續(xù)分享大會(huì)接下來兩天的內(nèi)容。(查看:300名三維視覺的高手齊聚一堂,青島論劍 | 3DV 2017

特邀報(bào)告(4/6)

高文院士,北京大學(xué)

在11日上午場(chǎng)的特邀報(bào)告環(huán)節(jié),北京大學(xué)高文院士向我們展示了他們?cè)趯?shí)時(shí)在線3D重建和移動(dòng)搜索方面的研究。

劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017

隨著AR/VR系統(tǒng)、自動(dòng)駕駛、UAV等領(lǐng)域的發(fā)展,在線視覺處理變得越來越重要,但是限于移動(dòng)端諸如帶寬、存儲(chǔ)大小、電池容量等的限制,實(shí)時(shí)在線3D重建以及移動(dòng)端搜索仍然有很大的挑戰(zhàn)。首先就后一個(gè)問題,高文院士提出通過interest points匹配來進(jìn)行移動(dòng)搜索,這能大大地降低對(duì)硬件的要求。報(bào)告中高文院士詳述了如何進(jìn)行interest points的檢測(cè)、特征選擇、特征聚合、局部特征描述及定位等技術(shù),同時(shí)還介紹了深度學(xué)習(xí)在這些方面的應(yīng)用。針對(duì)在線3D重建,高文院士提出通過key points以及點(diǎn)云的方式來解決。在報(bào)告的這一部分,高文院士首先詳細(xì)介紹了MPEG壓縮算法應(yīng)用于點(diǎn)云壓縮的相關(guān)工作,隨后介紹了他們?cè)赟LAM方面的研究,提出通過USB(Ultra Short Binary )描述、提取、匹配以及Polarimetric Multi-View Stereo的方式來解決SLAM中實(shí)時(shí)、精度以及無特征場(chǎng)景的問題;最后高文院士介紹了他們應(yīng)用以上技術(shù)搭建的PKU IKING UAV飛行平臺(tái),他們通過這個(gè)平臺(tái)使用無人機(jī)花3天時(shí)間重建了北大校園3cm-13cm精度的三維結(jié)構(gòu)。

權(quán)龍,香港科大終身教授

11日下午場(chǎng)特邀報(bào)告中,香港科技大學(xué)終身教授權(quán)龍充滿激情地給我們介紹了他在人工智能、計(jì)算機(jī)視覺、3D視覺重建等方面的思考和研究。

劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017

權(quán)龍教授認(rèn)為從AI的角度看,相比于語音和文字,視覺大約占所有信息的80%,所以更為重要,AI的演變主要來自于計(jì)算機(jī)視覺。權(quán)龍教授帶我們簡單地回顧了一下AI的發(fā)展歷史,從1998年到2012年15年的時(shí)間里,AI一直沒有很大的變化;但是在這沉默的15年中,計(jì)算硬件從CPU發(fā)展到了GPU有很大的提升,隨之也帶來AI近幾年迅猛的發(fā)展。在對(duì)計(jì)算機(jī)視覺的理解上,權(quán)龍教授認(rèn)為計(jì)算機(jī)視覺就是對(duì)基本視覺特征的搜索,而特征則是圖像重構(gòu)和識(shí)別的基礎(chǔ)。這方面通過使用深度學(xué)習(xí)網(wǎng)絡(luò)已經(jīng)有了非常完美的效果,但是仍有許多不足有待改進(jìn)。例如在識(shí)別方面,它仍然只能完成特定任務(wù)、不能像人一樣理解圖像。在重構(gòu)方面,則還面臨著諸如如何在兩張圖中找到相同事物、相關(guān)特征或像素等,如何去除不需要事物(例如天空)等問題。接下來,權(quán)龍教授介紹了現(xiàn)代三維重建管道的內(nèi)容,并相應(yīng)地提出了“深度三維重建”的概念——包括對(duì)傳統(tǒng)上特征檢測(cè)和匹配、來自運(yùn)動(dòng)的結(jié)構(gòu)、多視角立體等方面的改進(jìn)。此外,權(quán)龍教授還給我們展示了使用altizure.com(或者altizure.cn) 3D重建出的幾個(gè)demos,效果非常驚人。

Niloy Mitra,倫敦大學(xué)教授

12日上午由倫敦大學(xué)的Niloy Mitra教授給我們介紹了場(chǎng)景建模方面的工作。

劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017

(內(nèi)容由3DV 2017新聞組提供)首先,Mitra教授給我們展示了2張場(chǎng)景圖片,其中一張是真實(shí)的,另一張是渲染的,但由于渲染得太逼真,大家大都看不出來哪個(gè)是渲染。隨后Mitra教授介紹了他們是如何做到的,包括如何重建出三維模型,以及恢復(fù)材質(zhì)紋理和光照的方法。首先根據(jù)圖片的數(shù)量和質(zhì)量分了四種情況。第一種情況,當(dāng)物體圖片很多質(zhì)量較差時(shí),通過訓(xùn)練分類器方法或模型對(duì)齊的方法,去掉不好的圖片。三維模型加上紋理,經(jīng)過渲染,就得到了原圖的重建。第二種是物體圖片多質(zhì)量好的情況。動(dòng)機(jī)是把真實(shí)的物體圖片的紋理,轉(zhuǎn)到相似的三維模型上。其中的關(guān)鍵問題包括幾何姿態(tài)形狀估計(jì),以及光照建模。Mitra教授給我們展示了他們算法的結(jié)果,把同一紋理貼到了各種椅子模型上。第三種是圖片少質(zhì)量差的情況。這里用FNN來回歸渲染顏色,光照合成結(jié)果要比PMM要好。第四種情況是圖片少質(zhì)量好的情況。有時(shí)候我們需要編輯物體的漫反射顏色或者高光強(qiáng)度等,但是手動(dòng)操作時(shí)間慢而且復(fù)雜。Mitra教授使用CNN卷積神經(jīng)網(wǎng)絡(luò),能夠把物體的顏色分解成不同層,這樣能夠在不同層快速編輯顏色。另外,對(duì)于一個(gè)視角的顏色編輯,參數(shù)可以復(fù)制到不同視角,而且進(jìn)行自用優(yōu)化,也允許用戶自己調(diào)整。Mitra教授舉了個(gè)例子,比如想增強(qiáng)視頻中龍的高光,對(duì)第一幀處理好后,他們的算法可以據(jù)此自動(dòng)增強(qiáng)整個(gè)視頻的高光。最后Mitra教授介紹了他們?cè)诖笠?guī)模結(jié)構(gòu)化城市重建的工作。Google的街景重建存在很多問題,包括每個(gè)視角用的紋理集合不一樣,沒有根據(jù)法向渲染,而且沒有結(jié)構(gòu)細(xì)節(jié)等。Mitra教授團(tuán)隊(duì)解決了這些問題。在對(duì)街道進(jìn)行恢復(fù)時(shí),首先得到許多Google的街景圖片,然后計(jì)算建筑底層分區(qū)圖,最后構(gòu)造出結(jié)構(gòu)化的街區(qū)重建。

劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017

Mitra教授給我們展示了對(duì)一個(gè)倫敦街區(qū)的重建效果視頻,在重建結(jié)果里可以清楚看到窗戶等結(jié)構(gòu)化信息。這種城市建??梢詰?yīng)用于城市規(guī)劃和建筑設(shè)計(jì)中,例如在設(shè)計(jì)一個(gè)新建筑時(shí),如果有周邊環(huán)境的結(jié)構(gòu)化建模,那么就可以根據(jù)這些建模信息(例如窗口位置)來判斷新建筑的設(shè)計(jì)是否合適。如今這種結(jié)構(gòu)化重建的技術(shù)得到越來越多的關(guān)注。

楊睿剛,百度研究院三維視覺首席科學(xué)家

12日下午場(chǎng)的特邀報(bào)告則有百度研究院三維視覺首席科學(xué)家楊睿剛博士介紹了百度在AI領(lǐng)域的布局,并詳細(xì)介紹了百度無人駕駛車阿波羅以及機(jī)器人方面的研究。


劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017

(內(nèi)容參考3DV 2017新聞組提供資料)據(jù)楊睿剛博士介紹,百度認(rèn)為繼1994年以來的PC互聯(lián)網(wǎng)革命、2012年以來的移動(dòng)互聯(lián)網(wǎng)之后,下一個(gè)紀(jì)元將屬于人工智能。所以百度在AI領(lǐng)域基于AI開放平臺(tái)(ai.baidu.com)進(jìn)行了廣泛的布局,包括NLP、知識(shí)圖譜、用戶畫像、語音、圖像、視頻、AR/VR等領(lǐng)域。隨后楊睿剛博士就無人駕駛汽車阿波羅(Apollo)項(xiàng)目的技術(shù)架構(gòu)細(xì)節(jié)進(jìn)行了介紹。阿波羅項(xiàng)目是一個(gè)無人駕駛的開源平臺(tái),其架構(gòu)由云服務(wù)平臺(tái)、開放軟件平臺(tái)、參考硬件平臺(tái) 和參考車輛平臺(tái)構(gòu)成。  其中環(huán)境探知技術(shù)的核心是利用傳感器收集到的數(shù)據(jù)進(jìn)行檢測(cè)、場(chǎng)景理解與語義分割,最終預(yù)測(cè)和規(guī)劃車輛的行駛路徑。之后介紹了百度的高清晰度地圖項(xiàng)目,這個(gè)是自動(dòng)駕駛的基礎(chǔ)。另外百度的激光雷達(dá)SLAM項(xiàng)目,包括特征提取、幀間匹配以及滑動(dòng)窗口優(yōu)化三步。

楊睿剛博士之后介紹了百度在機(jī)器人方面的工作。機(jī)器人的主要問題包括導(dǎo)航、地圖繪制以及障礙物躲避三個(gè)方面。百度公開了其研發(fā)的機(jī)器人平臺(tái),其中的SDK實(shí)現(xiàn)了機(jī)器人相關(guān)的各種功能。楊睿剛博士又介紹了機(jī)器人平臺(tái)的硬件傳感模塊、VIO、重定位、基于雙目視覺的障礙物檢測(cè)等內(nèi)容。

劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017

 最后楊睿剛博士還展示了百度在視覺其他方面的一些研究和應(yīng)用,例如臉部識(shí)別方面,1:N的搜索和匹配中精度超過了99%。楊睿剛展示了一個(gè)例子,輸入他自己現(xiàn)在的照片,度秘很輕松地從楊老師初中畢業(yè)照中找出他來,而現(xiàn)場(chǎng)的觀眾大多都沒有分辨出來。此外,楊睿剛還展示了百度在AR方面的研究和應(yīng)用,并介紹了百度開放平臺(tái)——

阿波羅: http://apollo.auto

機(jī)器人視覺: http://ai.baidu.com/solution/roboticvision


口頭報(bào)告(8/12)

繼10日四場(chǎng)口頭報(bào)告之后,在11日和12日兩天又有8場(chǎng)口頭報(bào)告。分別為:(內(nèi)容由3DV 2017新聞組提供

Graph Match: Efficient Large Scale Graph Construction for Structure from Motion

劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017

文章提出了一種類似圖像匹配的方法,可有效的用于大規(guī)模運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)問題(Structure from Motion, SfM)中。不同于現(xiàn)有解決SFM問題中,使用詞匯表(Voc)來避免蠻力搜索并快速構(gòu)建匹配圖的方法。本文研究人員提出的Graph Match方法,不需要在預(yù)處理階段構(gòu)建繁雜的詞匯表,通過兩方面的先驗(yàn)數(shù)據(jù)檢測(cè)相似的圖相對(duì),更高效匹配圖像。先驗(yàn)數(shù)據(jù)一方面來自與對(duì)任意兩幅圖像的Fisher vector即似然函數(shù)的梯度向量評(píng)估所得數(shù)據(jù),另一方面基于對(duì)底層匹配圖中頂點(diǎn)之間的圖像距離評(píng)估所得。進(jìn)過研究人員的實(shí)驗(yàn)證明,Graph Match方法與其他相似的圖像匹配算法相比更加有效。這無疑是在解決計(jì)算機(jī)視覺大規(guī)模運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)問題方向的又一重大突破。

Fast Incremental Bundle Adjustment with Covariance Recovery

劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017

當(dāng)前由2D圖像進(jìn)行3D重建的技術(shù)已經(jīng)非常成熟,但是大多都是離線、后驗(yàn)且對(duì)重建后的不確定沒有反饋。作者提出通過一種增強(qiáng)BA(Bundle Adjustment)技術(shù)來獲得每次更新后的大小。這種技術(shù)不僅能夠計(jì)算出最優(yōu)解,而且能夠計(jì)算相關(guān)的不確定性,同時(shí)能夠反饋重建后的不確定性。

Cascaded Scene Flow Prediction using Semantic Segmentation

劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017

該報(bào)告帶來了一種新的從一對(duì)3D相機(jī)給出的兩個(gè)連續(xù)幀中同時(shí)估計(jì)被觀測(cè)場(chǎng)景中物體的形狀和運(yùn)動(dòng)的方法。他們的方法綜合考量了分割、形狀、運(yùn)動(dòng)、光流場(chǎng)等可用因素,通過優(yōu)化對(duì)整體的目標(biāo)函數(shù),取得精準(zhǔn)的語義場(chǎng)景流估計(jì)。通過在KITTI數(shù)據(jù)集中的驗(yàn)證,他們的方法確實(shí)精準(zhǔn)而有效。

Static and Dynamic Objects Analysis as a 3D Vector Field

劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017

(運(yùn)動(dòng)分割結(jié)果:左上2D-SMR,右上3D-SSC,左下3D-SFC,右下OSF。紅框標(biāo)注了錯(cuò)誤的分割)

Jiang Cansen等人則在中提出了一種新的場(chǎng)景分析方法,該方法具有三個(gè)卓著貢獻(xiàn):首先,可以有效地檢測(cè)物體的運(yùn)動(dòng);第二,提供了一種質(zhì)量較高的物體運(yùn)動(dòng)分割方法;第三,可以較好地生成靜態(tài)地圖和剛性物體。他們的方法在擁擠環(huán)境中的精準(zhǔn)機(jī)器人定位和自動(dòng)駕駛等方面有著十分廣闊的發(fā)展前景。

Learning Human Motion Models for Long-term Predictions

劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017

在長時(shí)間尺度上預(yù)測(cè)人的運(yùn)動(dòng)在各個(gè)應(yīng)用領(lǐng)域仍然是一個(gè)很具挑戰(zhàn)性的問題。在這個(gè)報(bào)告中,作者介紹了他們提出一個(gè)預(yù)測(cè)時(shí)空運(yùn)動(dòng)模型的新架構(gòu):Dropout Autoencoder LSTM (DAE-LSTM) ,這個(gè)架構(gòu)能夠在長時(shí)間尺度上合成較為自然的運(yùn)動(dòng)序列,而不會(huì)出現(xiàn)災(zāi)難性的漂移或退化。據(jù)作者介紹,這個(gè)模型由兩部分組成:一個(gè)三層循環(huán)神經(jīng)網(wǎng)絡(luò)(用于模擬臨時(shí)方面)和一個(gè)新型的自動(dòng)編碼器(通過隨機(jī)刪除訓(xùn)練中關(guān)節(jié)的信息,對(duì)人體骨骼的空間結(jié)構(gòu)進(jìn)行隱性恢復(fù))。此外作者還提出一種新的評(píng)估方案,使用動(dòng)作分類器來評(píng)估合成運(yùn)動(dòng)序列的質(zhì)量。通過報(bào)告中的展示,可以看出這項(xiàng)研究相比之前的方法有更好的表現(xiàn)。

Real-time Full-Body Motion Capture from Video and IMUs

劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017

實(shí)時(shí)拍攝人體動(dòng)作在電影娛樂行業(yè)以及生命科學(xué)領(lǐng)域都受到很大的關(guān)注。報(bào)告中作者介紹了他們提出的一種實(shí)時(shí)的全身運(yùn)動(dòng)捕捉系統(tǒng),該系統(tǒng)只需要使用慣性測(cè)量單元(IMUs)的稀疏集加上兩個(gè)(或幾個(gè))標(biāo)準(zhǔn)攝像機(jī)拍攝的圖像,而不像傳統(tǒng)的需要光學(xué)標(biāo)記和專門的紅外攝像機(jī)。他們還提出了一種實(shí)時(shí)優(yōu)化框架(包括來自IMU、攝像機(jī)以及先前姿態(tài)模型的約束等)。報(bào)告中作者展示了他們通過視頻加IMU數(shù)據(jù)的組合,重現(xiàn)完整的6自由度的運(yùn)動(dòng),包括四肢的軸向旋轉(zhuǎn)以及無漂移的全局位置。其實(shí)驗(yàn)表明該方法在室內(nèi)、室外都有很好的表現(xiàn)。

Monocular 3D Human Pose Estimation In The Wild Using Improved CNN Supervision

劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017

作者提出了一種基于CNN方法,用單張RGB圖像的2D人體姿態(tài)數(shù)據(jù)通過遷移學(xué)習(xí)生成3D人體姿態(tài),從而構(gòu)建了一個(gè)新的可用于訓(xùn)練和測(cè)試的數(shù)據(jù)集MPI-INF-3DHP。另外在報(bào)告中作者證明從2D姿態(tài)數(shù)據(jù)集遷移到3D會(huì)有更好的效果。這種方法在未來仍有許多值得研究之處:1、大尺度自我遮擋的姿勢(shì);2、多人情形;3、表面重建。

Efficient Deformable Shape Correspondence via Kernel Matching

劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017

在非剛性形狀之間發(fā)現(xiàn)對(duì)應(yīng)關(guān)系是計(jì)算機(jī)視覺、圖形學(xué)及模式識(shí)別中的一個(gè)根本問題。報(bào)告中作者提出一種在非等距變形、拓?fù)渥兓推蚨认缕ヅ淙S形狀的方法。作者等人將形狀對(duì)應(yīng)的問題看作是逐點(diǎn)、逐對(duì)描述符集合的匹配問題,并在映射之前加入連續(xù)性,提出一個(gè)預(yù)測(cè)下降優(yōu)化過程。在多個(gè)數(shù)據(jù)集上的實(shí)驗(yàn)證明,這種方法比之前最好的方法更好。

短報(bào)告及海報(bào)展示

在短報(bào)告中,值得關(guān)注的是有四篇論文來自國內(nèi)文章,分別來自香港科大、中科院自動(dòng)化所、華中科大和清華大學(xué)。

Relative Camera Refinement for Accurate Dense Reconstruction

(內(nèi)容由作者提供)相機(jī)幾何重建往往難以達(dá)到完美,大規(guī)模三維重建的全局相機(jī)優(yōu)化以及實(shí)時(shí)SLAM系統(tǒng)中的多傳感器融合,都會(huì)使相機(jī)估計(jì)整體趨于平滑,導(dǎo)致局部相機(jī)極線偏移而影響點(diǎn)云重建質(zhì)量。本文在傳統(tǒng)三維重建流程加入了局部相機(jī)優(yōu)化以及全局點(diǎn)云融合兩個(gè)新步驟,在為局部點(diǎn)云重建提供準(zhǔn)確相機(jī)參數(shù)的同時(shí),提出了一個(gè)將局部坐標(biāo)系中點(diǎn)云匹配到全局坐標(biāo)系的快速算法。該算法在大規(guī)模SfM重建以及實(shí)時(shí)SLAM重建中都能顯著地提高點(diǎn)云重建的質(zhì)量。

劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017

Batched Incremental Structure-from-Motion

SfM(Structure-from-Motion)技術(shù)在魯棒性和準(zhǔn)確性方面都有所提高,但效率和可擴(kuò)展性仍然是其關(guān)鍵挑戰(zhàn)。本文提出了一種新穎的批量增量SfM技術(shù),在包含兩個(gè)迭代循環(huán)的統(tǒng)一框架中解決這些問題。內(nèi)循環(huán)是軌道三角循環(huán),其中提出了一種新穎的軌道選擇方法來找到用于束調(diào)整(BA)的軌道的緊湊子集。外環(huán)是相機(jī)注冊(cè)循環(huán),其中同時(shí)添加一批相機(jī)以減小漂移風(fēng)險(xiǎn)并減少BA的運(yùn)行時(shí)間。通過軌道選擇和批量攝像機(jī)登記,作者發(fā)現(xiàn)這兩個(gè)迭代循環(huán)快速收斂。實(shí)驗(yàn)表明,這個(gè)新的SfM系統(tǒng)相比當(dāng)下許多最先進(jìn)的SfM系統(tǒng),在相機(jī)校準(zhǔn)精度方面表現(xiàn)相似或更好,而對(duì)于大規(guī)模場(chǎng)景重建而言,它則更有效率、可靠性更高且具有可擴(kuò)展性。

劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017

Performance Evaluation of 3D Correspondence Grouping Algorithms

在3D形狀之間建立正確的匹配關(guān)系(也稱為關(guān)聯(lián)問題)是3D計(jì)算機(jī)視覺的基石。作者在論文中對(duì)幾種廣泛使用的3D對(duì)應(yīng)分組算法進(jìn)行了全面的評(píng)估。 在評(píng)估中則需要一個(gè)好的對(duì)應(yīng)分組算法來從初始特征匹配中檢索從而提高精度和回調(diào)率。 針對(duì)這一規(guī)則,作者在三個(gè)基準(zhǔn)面上部署了實(shí)驗(yàn),分別用于形狀檢索,3D對(duì)象識(shí)別和點(diǎn)云注冊(cè)。 應(yīng)用環(huán)境的多樣性也會(huì)帶來很多干擾,包括噪點(diǎn)、變化點(diǎn)密度、雜波、遮擋和部分重疊,這會(huì)導(dǎo)致綜合評(píng)估的內(nèi)在和不對(duì)稱分布的不同比例。 基于定量的結(jié)果,作者從性能和效率的角度總結(jié)了評(píng)估算法的優(yōu)缺點(diǎn)。

3D Object Classification via Spherical Projections

清華大學(xué)的Zhangjie Cao報(bào)告了一種分類三維物體的新方法——將三維物體投影到球形域上,利用神經(jīng)網(wǎng)絡(luò)對(duì)球形投影進(jìn)行三維物體的分類。球面投影分類法結(jié)合了結(jié)合兩種主流的三維分類方法的優(yōu)勢(shì)——即基于圖片的方法和基于三維模型的方法,從而可以利用大量的圖片數(shù)據(jù)集進(jìn)行與訓(xùn)練,且球面投影法與基于體素的方法類似,能夠編碼完整的三維物體信息。

當(dāng)然精彩不止這些,還有很多來自著名高校的報(bào)告和展示,內(nèi)容非常豐富,值得隨后仔細(xì)品讀,例如:

Using learning of speed to stabilize scale in monocular localization and mapping(牛津大學(xué))

SEGCloud: 3D Semantic Segmentation on Point Cloud(斯坦福大學(xué))

Cross-modal Attribute Transfer for Rescaling 3D Models(斯坦福大學(xué)&普林斯頓大學(xué))

Matterport3D: Learning from RGB-D Data in Indoor Environments(普林斯頓大學(xué)等)

這些報(bào)告和海報(bào)的內(nèi)容雷鋒網(wǎng)就不再一一介紹,感興趣的可以在arXiv等網(wǎng)站上下載來研究。


劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017

(來自斯坦福大學(xué)的研究人員在海報(bào)展示)


閉幕式

最后,持續(xù)三天的3DV 2017大會(huì)在12日下午5:20正式閉幕。閉幕式上宣布了這次大會(huì)的最佳論文——

劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017


最佳學(xué)生論文:Sparsity Invariant CNNs

論文簡介:對(duì)于傳統(tǒng)的卷積網(wǎng)絡(luò)在應(yīng)用到稀疏數(shù)據(jù)時(shí)表現(xiàn)不佳的問題,研究人員提出了一個(gè)簡單而有效的稀疏卷積層,它考慮了卷積過程中缺失數(shù)據(jù)的位置,能很好地推廣到新的數(shù)據(jù)集,并且與數(shù)據(jù)稀疏程度保持不變,這無疑是機(jī)器學(xué)習(xí)與計(jì)算機(jī)視覺交叉方向的又一大創(chuàng)新。

劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017


最佳論文:Learning Human Motion Models for Long-term Predictions

論文簡介:見前面內(nèi)容

劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017

最佳論文提名:Fast Incremental Bundle Adjustment with Covariance Recovery

論文簡介:見前面內(nèi)容

劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017

隨后還宣布了下一屆大會(huì)3DV 2018將于2018年9月15日-18日在意大利的維羅納,由維羅納大學(xué)主辦。

劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017

大會(huì)日程安排大致和這屆大會(huì)相同,但在18日增加了研討會(huì)和展覽會(huì)的環(huán)節(jié)。此外,想要投遞論文的研究人員需要注意了,論文投遞時(shí)間為2018年6月5日。

雷鋒網(wǎng)注:文中部分內(nèi)容及照片由3DV新聞組和攝影組提供,特此感謝。

相關(guān)文章:

或許未來所有的3D特效技術(shù)都在這里了,300名三維視覺的高手齊聚一堂,青島論劍 | 3DV 2017

三維視覺國際會(huì)議首度在中國舉辦,和雷鋒網(wǎng)一起了解3DV 2017

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

劃重點(diǎn)!一文帶你看懂三維視覺國際會(huì)議的精彩內(nèi)容 | 3DV 2017

分享:
相關(guān)文章
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說