丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能 正文
發(fā)私信給camel
發(fā)送

0

劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017

本文作者: camel 編輯:郭奕欣 2017-10-14 08:06
導語:這個會議很讓人喜歡,不大不小,很專注,來的都是高手。

雷鋒網AI科技評論按,繼上次分享了3DV 2017國際會議首日的報告內容之后,我們在本文將繼續(xù)分享大會接下來兩天的內容。(查看:300名三維視覺的高手齊聚一堂,青島論劍 | 3DV 2017

特邀報告(4/6)

高文院士,北京大學

在11日上午場的特邀報告環(huán)節(jié),北京大學高文院士向我們展示了他們在實時在線3D重建和移動搜索方面的研究。

劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017

隨著AR/VR系統(tǒng)、自動駕駛、UAV等領域的發(fā)展,在線視覺處理變得越來越重要,但是限于移動端諸如帶寬、存儲大小、電池容量等的限制,實時在線3D重建以及移動端搜索仍然有很大的挑戰(zhàn)。首先就后一個問題,高文院士提出通過interest points匹配來進行移動搜索,這能大大地降低對硬件的要求。報告中高文院士詳述了如何進行interest points的檢測、特征選擇、特征聚合、局部特征描述及定位等技術,同時還介紹了深度學習在這些方面的應用。針對在線3D重建,高文院士提出通過key points以及點云的方式來解決。在報告的這一部分,高文院士首先詳細介紹了MPEG壓縮算法應用于點云壓縮的相關工作,隨后介紹了他們在SLAM方面的研究,提出通過USB(Ultra Short Binary )描述、提取、匹配以及Polarimetric Multi-View Stereo的方式來解決SLAM中實時、精度以及無特征場景的問題;最后高文院士介紹了他們應用以上技術搭建的PKU IKING UAV飛行平臺,他們通過這個平臺使用無人機花3天時間重建了北大校園3cm-13cm精度的三維結構。

權龍,香港科大終身教授

11日下午場特邀報告中,香港科技大學終身教授權龍充滿激情地給我們介紹了他在人工智能、計算機視覺、3D視覺重建等方面的思考和研究。

劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017

權龍教授認為從AI的角度看,相比于語音和文字,視覺大約占所有信息的80%,所以更為重要,AI的演變主要來自于計算機視覺。權龍教授帶我們簡單地回顧了一下AI的發(fā)展歷史,從1998年到2012年15年的時間里,AI一直沒有很大的變化;但是在這沉默的15年中,計算硬件從CPU發(fā)展到了GPU有很大的提升,隨之也帶來AI近幾年迅猛的發(fā)展。在對計算機視覺的理解上,權龍教授認為計算機視覺就是對基本視覺特征的搜索,而特征則是圖像重構和識別的基礎。這方面通過使用深度學習網絡已經有了非常完美的效果,但是仍有許多不足有待改進。例如在識別方面,它仍然只能完成特定任務、不能像人一樣理解圖像。在重構方面,則還面臨著諸如如何在兩張圖中找到相同事物、相關特征或像素等,如何去除不需要事物(例如天空)等問題。接下來,權龍教授介紹了現(xiàn)代三維重建管道的內容,并相應地提出了“深度三維重建”的概念——包括對傳統(tǒng)上特征檢測和匹配、來自運動的結構、多視角立體等方面的改進。此外,權龍教授還給我們展示了使用altizure.com(或者altizure.cn) 3D重建出的幾個demos,效果非常驚人。

Niloy Mitra,倫敦大學教授

12日上午由倫敦大學的Niloy Mitra教授給我們介紹了場景建模方面的工作。

劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017

(內容由3DV 2017新聞組提供)首先,Mitra教授給我們展示了2張場景圖片,其中一張是真實的,另一張是渲染的,但由于渲染得太逼真,大家大都看不出來哪個是渲染。隨后Mitra教授介紹了他們是如何做到的,包括如何重建出三維模型,以及恢復材質紋理和光照的方法。首先根據(jù)圖片的數(shù)量和質量分了四種情況。第一種情況,當物體圖片很多質量較差時,通過訓練分類器方法或模型對齊的方法,去掉不好的圖片。三維模型加上紋理,經過渲染,就得到了原圖的重建。第二種是物體圖片多質量好的情況。動機是把真實的物體圖片的紋理,轉到相似的三維模型上。其中的關鍵問題包括幾何姿態(tài)形狀估計,以及光照建模。Mitra教授給我們展示了他們算法的結果,把同一紋理貼到了各種椅子模型上。第三種是圖片少質量差的情況。這里用FNN來回歸渲染顏色,光照合成結果要比PMM要好。第四種情況是圖片少質量好的情況。有時候我們需要編輯物體的漫反射顏色或者高光強度等,但是手動操作時間慢而且復雜。Mitra教授使用CNN卷積神經網絡,能夠把物體的顏色分解成不同層,這樣能夠在不同層快速編輯顏色。另外,對于一個視角的顏色編輯,參數(shù)可以復制到不同視角,而且進行自用優(yōu)化,也允許用戶自己調整。Mitra教授舉了個例子,比如想增強視頻中龍的高光,對第一幀處理好后,他們的算法可以據(jù)此自動增強整個視頻的高光。最后Mitra教授介紹了他們在大規(guī)模結構化城市重建的工作。Google的街景重建存在很多問題,包括每個視角用的紋理集合不一樣,沒有根據(jù)法向渲染,而且沒有結構細節(jié)等。Mitra教授團隊解決了這些問題。在對街道進行恢復時,首先得到許多Google的街景圖片,然后計算建筑底層分區(qū)圖,最后構造出結構化的街區(qū)重建。

劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017

Mitra教授給我們展示了對一個倫敦街區(qū)的重建效果視頻,在重建結果里可以清楚看到窗戶等結構化信息。這種城市建??梢詰糜诔鞘幸?guī)劃和建筑設計中,例如在設計一個新建筑時,如果有周邊環(huán)境的結構化建模,那么就可以根據(jù)這些建模信息(例如窗口位置)來判斷新建筑的設計是否合適。如今這種結構化重建的技術得到越來越多的關注。

楊睿剛,百度研究院三維視覺首席科學家

12日下午場的特邀報告則有百度研究院三維視覺首席科學家楊睿剛博士介紹了百度在AI領域的布局,并詳細介紹了百度無人駕駛車阿波羅以及機器人方面的研究。


劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017

(內容參考3DV 2017新聞組提供資料)據(jù)楊睿剛博士介紹,百度認為繼1994年以來的PC互聯(lián)網革命、2012年以來的移動互聯(lián)網之后,下一個紀元將屬于人工智能。所以百度在AI領域基于AI開放平臺(ai.baidu.com)進行了廣泛的布局,包括NLP、知識圖譜、用戶畫像、語音、圖像、視頻、AR/VR等領域。隨后楊睿剛博士就無人駕駛汽車阿波羅(Apollo)項目的技術架構細節(jié)進行了介紹。阿波羅項目是一個無人駕駛的開源平臺,其架構由云服務平臺、開放軟件平臺、參考硬件平臺 和參考車輛平臺構成。  其中環(huán)境探知技術的核心是利用傳感器收集到的數(shù)據(jù)進行檢測、場景理解與語義分割,最終預測和規(guī)劃車輛的行駛路徑。之后介紹了百度的高清晰度地圖項目,這個是自動駕駛的基礎。另外百度的激光雷達SLAM項目,包括特征提取、幀間匹配以及滑動窗口優(yōu)化三步。

楊睿剛博士之后介紹了百度在機器人方面的工作。機器人的主要問題包括導航、地圖繪制以及障礙物躲避三個方面。百度公開了其研發(fā)的機器人平臺,其中的SDK實現(xiàn)了機器人相關的各種功能。楊睿剛博士又介紹了機器人平臺的硬件傳感模塊、VIO、重定位、基于雙目視覺的障礙物檢測等內容。

劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017

 最后楊睿剛博士還展示了百度在視覺其他方面的一些研究和應用,例如臉部識別方面,1:N的搜索和匹配中精度超過了99%。楊睿剛展示了一個例子,輸入他自己現(xiàn)在的照片,度秘很輕松地從楊老師初中畢業(yè)照中找出他來,而現(xiàn)場的觀眾大多都沒有分辨出來。此外,楊睿剛還展示了百度在AR方面的研究和應用,并介紹了百度開放平臺——

阿波羅: http://apollo.auto

機器人視覺: http://ai.baidu.com/solution/roboticvision


口頭報告(8/12)

繼10日四場口頭報告之后,在11日和12日兩天又有8場口頭報告。分別為:(內容由3DV 2017新聞組提供

Graph Match: Efficient Large Scale Graph Construction for Structure from Motion

劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017

文章提出了一種類似圖像匹配的方法,可有效的用于大規(guī)模運動恢復結構問題(Structure from Motion, SfM)中。不同于現(xiàn)有解決SFM問題中,使用詞匯表(Voc)來避免蠻力搜索并快速構建匹配圖的方法。本文研究人員提出的Graph Match方法,不需要在預處理階段構建繁雜的詞匯表,通過兩方面的先驗數(shù)據(jù)檢測相似的圖相對,更高效匹配圖像。先驗數(shù)據(jù)一方面來自與對任意兩幅圖像的Fisher vector即似然函數(shù)的梯度向量評估所得數(shù)據(jù),另一方面基于對底層匹配圖中頂點之間的圖像距離評估所得。進過研究人員的實驗證明,Graph Match方法與其他相似的圖像匹配算法相比更加有效。這無疑是在解決計算機視覺大規(guī)模運動恢復結構問題方向的又一重大突破。

Fast Incremental Bundle Adjustment with Covariance Recovery

劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017

當前由2D圖像進行3D重建的技術已經非常成熟,但是大多都是離線、后驗且對重建后的不確定沒有反饋。作者提出通過一種增強BA(Bundle Adjustment)技術來獲得每次更新后的大小。這種技術不僅能夠計算出最優(yōu)解,而且能夠計算相關的不確定性,同時能夠反饋重建后的不確定性。

Cascaded Scene Flow Prediction using Semantic Segmentation

劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017

該報告帶來了一種新的從一對3D相機給出的兩個連續(xù)幀中同時估計被觀測場景中物體的形狀和運動的方法。他們的方法綜合考量了分割、形狀、運動、光流場等可用因素,通過優(yōu)化對整體的目標函數(shù),取得精準的語義場景流估計。通過在KITTI數(shù)據(jù)集中的驗證,他們的方法確實精準而有效。

Static and Dynamic Objects Analysis as a 3D Vector Field

劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017

(運動分割結果:左上2D-SMR,右上3D-SSC,左下3D-SFC,右下OSF。紅框標注了錯誤的分割)

Jiang Cansen等人則在中提出了一種新的場景分析方法,該方法具有三個卓著貢獻:首先,可以有效地檢測物體的運動;第二,提供了一種質量較高的物體運動分割方法;第三,可以較好地生成靜態(tài)地圖和剛性物體。他們的方法在擁擠環(huán)境中的精準機器人定位和自動駕駛等方面有著十分廣闊的發(fā)展前景。

Learning Human Motion Models for Long-term Predictions

劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017

在長時間尺度上預測人的運動在各個應用領域仍然是一個很具挑戰(zhàn)性的問題。在這個報告中,作者介紹了他們提出一個預測時空運動模型的新架構:Dropout Autoencoder LSTM (DAE-LSTM) ,這個架構能夠在長時間尺度上合成較為自然的運動序列,而不會出現(xiàn)災難性的漂移或退化。據(jù)作者介紹,這個模型由兩部分組成:一個三層循環(huán)神經網絡(用于模擬臨時方面)和一個新型的自動編碼器(通過隨機刪除訓練中關節(jié)的信息,對人體骨骼的空間結構進行隱性恢復)。此外作者還提出一種新的評估方案,使用動作分類器來評估合成運動序列的質量。通過報告中的展示,可以看出這項研究相比之前的方法有更好的表現(xiàn)。

Real-time Full-Body Motion Capture from Video and IMUs

劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017

實時拍攝人體動作在電影娛樂行業(yè)以及生命科學領域都受到很大的關注。報告中作者介紹了他們提出的一種實時的全身運動捕捉系統(tǒng),該系統(tǒng)只需要使用慣性測量單元(IMUs)的稀疏集加上兩個(或幾個)標準攝像機拍攝的圖像,而不像傳統(tǒng)的需要光學標記和專門的紅外攝像機。他們還提出了一種實時優(yōu)化框架(包括來自IMU、攝像機以及先前姿態(tài)模型的約束等)。報告中作者展示了他們通過視頻加IMU數(shù)據(jù)的組合,重現(xiàn)完整的6自由度的運動,包括四肢的軸向旋轉以及無漂移的全局位置。其實驗表明該方法在室內、室外都有很好的表現(xiàn)。

Monocular 3D Human Pose Estimation In The Wild Using Improved CNN Supervision

劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017

作者提出了一種基于CNN方法,用單張RGB圖像的2D人體姿態(tài)數(shù)據(jù)通過遷移學習生成3D人體姿態(tài),從而構建了一個新的可用于訓練和測試的數(shù)據(jù)集MPI-INF-3DHP。另外在報告中作者證明從2D姿態(tài)數(shù)據(jù)集遷移到3D會有更好的效果。這種方法在未來仍有許多值得研究之處:1、大尺度自我遮擋的姿勢;2、多人情形;3、表面重建。

Efficient Deformable Shape Correspondence via Kernel Matching

劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017

在非剛性形狀之間發(fā)現(xiàn)對應關系是計算機視覺、圖形學及模式識別中的一個根本問題。報告中作者提出一種在非等距變形、拓撲變化和偏向度下匹配三維形狀的方法。作者等人將形狀對應的問題看作是逐點、逐對描述符集合的匹配問題,并在映射之前加入連續(xù)性,提出一個預測下降優(yōu)化過程。在多個數(shù)據(jù)集上的實驗證明,這種方法比之前最好的方法更好。

短報告及海報展示

在短報告中,值得關注的是有四篇論文來自國內文章,分別來自香港科大、中科院自動化所、華中科大和清華大學。

Relative Camera Refinement for Accurate Dense Reconstruction

(內容由作者提供)相機幾何重建往往難以達到完美,大規(guī)模三維重建的全局相機優(yōu)化以及實時SLAM系統(tǒng)中的多傳感器融合,都會使相機估計整體趨于平滑,導致局部相機極線偏移而影響點云重建質量。本文在傳統(tǒng)三維重建流程加入了局部相機優(yōu)化以及全局點云融合兩個新步驟,在為局部點云重建提供準確相機參數(shù)的同時,提出了一個將局部坐標系中點云匹配到全局坐標系的快速算法。該算法在大規(guī)模SfM重建以及實時SLAM重建中都能顯著地提高點云重建的質量。

劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017

Batched Incremental Structure-from-Motion

SfM(Structure-from-Motion)技術在魯棒性和準確性方面都有所提高,但效率和可擴展性仍然是其關鍵挑戰(zhàn)。本文提出了一種新穎的批量增量SfM技術,在包含兩個迭代循環(huán)的統(tǒng)一框架中解決這些問題。內循環(huán)是軌道三角循環(huán),其中提出了一種新穎的軌道選擇方法來找到用于束調整(BA)的軌道的緊湊子集。外環(huán)是相機注冊循環(huán),其中同時添加一批相機以減小漂移風險并減少BA的運行時間。通過軌道選擇和批量攝像機登記,作者發(fā)現(xiàn)這兩個迭代循環(huán)快速收斂。實驗表明,這個新的SfM系統(tǒng)相比當下許多最先進的SfM系統(tǒng),在相機校準精度方面表現(xiàn)相似或更好,而對于大規(guī)模場景重建而言,它則更有效率、可靠性更高且具有可擴展性。

劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017

Performance Evaluation of 3D Correspondence Grouping Algorithms

在3D形狀之間建立正確的匹配關系(也稱為關聯(lián)問題)是3D計算機視覺的基石。作者在論文中對幾種廣泛使用的3D對應分組算法進行了全面的評估。 在評估中則需要一個好的對應分組算法來從初始特征匹配中檢索從而提高精度和回調率。 針對這一規(guī)則,作者在三個基準面上部署了實驗,分別用于形狀檢索,3D對象識別和點云注冊。 應用環(huán)境的多樣性也會帶來很多干擾,包括噪點、變化點密度、雜波、遮擋和部分重疊,這會導致綜合評估的內在和不對稱分布的不同比例。 基于定量的結果,作者從性能和效率的角度總結了評估算法的優(yōu)缺點。

3D Object Classification via Spherical Projections

清華大學的Zhangjie Cao報告了一種分類三維物體的新方法——將三維物體投影到球形域上,利用神經網絡對球形投影進行三維物體的分類。球面投影分類法結合了結合兩種主流的三維分類方法的優(yōu)勢——即基于圖片的方法和基于三維模型的方法,從而可以利用大量的圖片數(shù)據(jù)集進行與訓練,且球面投影法與基于體素的方法類似,能夠編碼完整的三維物體信息。

當然精彩不止這些,還有很多來自著名高校的報告和展示,內容非常豐富,值得隨后仔細品讀,例如:

Using learning of speed to stabilize scale in monocular localization and mapping(牛津大學)

SEGCloud: 3D Semantic Segmentation on Point Cloud(斯坦福大學)

Cross-modal Attribute Transfer for Rescaling 3D Models(斯坦福大學&普林斯頓大學)

Matterport3D: Learning from RGB-D Data in Indoor Environments(普林斯頓大學等)

這些報告和海報的內容雷鋒網就不再一一介紹,感興趣的可以在arXiv等網站上下載來研究。


劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017

(來自斯坦福大學的研究人員在海報展示)


閉幕式

最后,持續(xù)三天的3DV 2017大會在12日下午5:20正式閉幕。閉幕式上宣布了這次大會的最佳論文——

劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017


最佳學生論文:Sparsity Invariant CNNs

論文簡介:對于傳統(tǒng)的卷積網絡在應用到稀疏數(shù)據(jù)時表現(xiàn)不佳的問題,研究人員提出了一個簡單而有效的稀疏卷積層,它考慮了卷積過程中缺失數(shù)據(jù)的位置,能很好地推廣到新的數(shù)據(jù)集,并且與數(shù)據(jù)稀疏程度保持不變,這無疑是機器學習與計算機視覺交叉方向的又一大創(chuàng)新。

劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017


最佳論文:Learning Human Motion Models for Long-term Predictions

論文簡介:見前面內容

劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017

最佳論文提名:Fast Incremental Bundle Adjustment with Covariance Recovery

論文簡介:見前面內容

劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017

隨后還宣布了下一屆大會3DV 2018將于2018年9月15日-18日在意大利的維羅納,由維羅納大學主辦。

劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017

大會日程安排大致和這屆大會相同,但在18日增加了研討會和展覽會的環(huán)節(jié)。此外,想要投遞論文的研究人員需要注意了,論文投遞時間為2018年6月5日。

雷鋒網注:文中部分內容及照片由3DV新聞組和攝影組提供,特此感謝。

相關文章:

或許未來所有的3D特效技術都在這里了,300名三維視覺的高手齊聚一堂,青島論劍 | 3DV 2017

三維視覺國際會議首度在中國舉辦,和雷鋒網一起了解3DV 2017

雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知

劃重點!一文帶你看懂三維視覺國際會議的精彩內容 | 3DV 2017

分享:
相關文章
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說