0
本文作者: AI研習社-譯站 | 2018-06-19 16:59 |
雷鋒網(wǎng)按:這里是,雷鋒字幕組編譯的 SIGGRAPH 2018系列,帶你了解 Computer Vision 領域的最新研究成果。
原標題 :SIGGRAPH 2018 Mode-Adaptive Neural Networks for Quadruped Motion Control
翻譯 | Binpluto 整理 | 凡江
四足動物的動畫制作是一項在計算機動畫方面懸而未解的關鍵問題,而這對游戲,電影和機器人技術方面有著極大的意義。
本期論文提出了一種用于四足運動合成的新型數(shù)據(jù)驅動方法,并稱之為自適應神經(jīng)網(wǎng)絡。該系統(tǒng)可以實現(xiàn),根據(jù)控制命令產(chǎn)生逼真的運動動畫和穩(wěn)定的轉換過程。與傳統(tǒng)的關鍵幀動畫不同,這項系統(tǒng)不需要單獨創(chuàng)建動畫剪輯或動畫圖形,而是能夠直接通過數(shù)據(jù)學習這些動畫。
由于四足動物的腳步類型復雜,標記運動模型通常需要專業(yè)知識和大量的數(shù)據(jù)來校準和預處理。
四足運動的數(shù)據(jù)采集通常也是非常不規(guī)則的,并且包括了一系列大偏差的運動。將標準神經(jīng)網(wǎng)絡模型應用于這樣的數(shù)據(jù)可以重現(xiàn)典型的面部情緒,但是會導致明顯的滑動跡象造成不自然,或者是人工合成的跡象。
在這項研究中,研究人員開發(fā)了這個新型端對端學習架構,可以從大量的非結構化運動的采集數(shù)據(jù)中學習,通過隨機梯度下降法來訓練系統(tǒng),運動數(shù)據(jù)包括坐,停止,躺,步行,踱步,小跑,慢跑,跳躍,轉身和站立。
在訓練之后,用戶可以交互式地實時控制運動特性并且啟動各種運動模式和動作,通過使用簡單的鍵盤控制命令 地面上的紅色和綠色箭頭 標示了運動控制信號,用于估計用戶想要導引的軌跡。
簡而言之,該論文提出了基于模式自適應神經(jīng)網(wǎng)絡的實時 Quattro(四輪驅動系統(tǒng) four -wheel system)和運動合成,這是第一個系統(tǒng)化近似構建一個數(shù)據(jù)驅動四驅衰減運動特性控制器的方法,產(chǎn)生字節(jié)上變化的運動模式動作和不同的轉換,這就可以實際使用的系統(tǒng)用于端對端非結構化運動捕捉數(shù)據(jù),而不用為運動面或運動模型給出標簽,整個系統(tǒng)很流暢,該動畫演示非常自然。
Github:https://github.com/sebastianstarke/AI4Animation
論文原址:https://github.com/sebastianstarke/AI4Animation/blob/master/Media/SIGGRAPH_2018/Paper.pdf
雷鋒網(wǎng)雷鋒網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知。