1
本文作者: 劉芳平 | 2016-08-08 21:19 |
數(shù)娛科技CEO林云帆
許多人都看過The Void發(fā)布的一個視頻,視頻里多人在一個大空間里戴上VR頭盔進行對戰(zhàn),大家覺得非常震撼。The Void做的是VR主題樂園,而那個視頻只是個宣傳片,要實現(xiàn)這個的場景,首先就需要一個大空間定位方案。
然而目前OptiTrack這種Outside-in的光學(xué)定位方案雖然精度很高,但要做到大空間成本會非常高昂。于是有一些公司就在研發(fā)低成本的替代方案,其中就包括剛剛在廣州舉行了首次產(chǎn)品發(fā)布會的數(shù)娛科技。
該公司在8月5日舉行的發(fā)布會上推出了兩款產(chǎn)品,一款是INAVR力反饋背心,另一款是INAVR多人空間定位系統(tǒng)解決方案。
INAVR力反饋背心
INAVR力反饋背心是一款輸出設(shè)備,為的是讓用戶在體驗VR時獲得更真實的感受。例如,當(dāng)你在玩一款射擊游戲時,身體如果被擊中,這款背心會給你一種被打中的感覺。
根據(jù)官方的介紹,這款售價2388元的產(chǎn)品,其背心正面擁有個6力作用單元,依次分布在腰部、肋骨以及胸部(每個部位對稱分布兩個單元)。另外,在背后左右肩胛骨的位置還各設(shè)有一個力作用單元。通過8個力作用單元,能夠?qū)崿F(xiàn)豐富多樣的力作用模式,上下左右前后等均可設(shè)計控制。此外,它的四角分別設(shè)有四個扣環(huán),可以快速與背負(fù)式電腦結(jié)合。
背心正面的中間位置有一個圓柱體的盒子,是背心的控制中樞,內(nèi)部集成了英特爾Curie芯片。這款產(chǎn)品的開發(fā)得到了英特爾方面的支持。
下面重點來講一下該公司推出的另一款產(chǎn)品,同樣得到英特爾技術(shù)支持的INAVR CAMERA全感攝像頭,主要應(yīng)用于大空間多人定位,AR與體感深度交互。
在發(fā)布會之前,該公司就放出過一段視頻,展示通過手機上顯示的一款增強現(xiàn)實應(yīng)用。從演示來看,它與Google的Tango技術(shù)非常類似,后者目前已由聯(lián)想推出了首款Tango手機。
INAVR CAMERA和Tango都是Inside out的定位技術(shù),Tango使用深度攝像頭加上SLAM技術(shù)來識別周圍物體的位置。
不過在與數(shù)娛科技的CEO林云帆溝通后,他表示INAVR CAMERA并“不是SLAM模式,是Motion Tracking加我們的算法融合”,而且“不需要用到外部標(biāo)記點”。
該公司一位技術(shù)負(fù)責(zé)人告訴沉浸感(公眾號vrleiphone),“這個相機會捕捉外部的環(huán)境,提取出它的特征點,同時里面有IMU加速度傳感器監(jiān)測它的位移,結(jié)合了光學(xué)特征點和IMU傳感器的這種技術(shù)方案?!?/p>
而后該技術(shù)人員又表示會通過Mark點(標(biāo)記點)來規(guī)避掉長時間(30分鐘以上)使用所累積的誤差。它表示這套系統(tǒng)的定位精度能達到厘米級別,前提是使用時長在30分鐘以內(nèi)。
現(xiàn)場還演示了這款產(chǎn)品的AR功能,類似于HoloLens,但用戶是透過攝像頭看到外部的場景。不過這次演示并不成功,還有VR的演示也同樣如此,會后技術(shù)人員解釋說這套系統(tǒng)在光線反差大的地方會受到影響,而會場黑暗的環(huán)境加上明亮的射燈估計是演示不成功的原因。
根據(jù)官方給出的資料,這款比OptiTrack方案便宜非常多的產(chǎn)品售價3388元,采用英特爾凌動TM X7-Z8700處理器,支持Andorid和Windows,兼容英特爾RealSense SDK和Google Tango SDK,內(nèi)置INU(前文說的是IMU傳感器,沉浸感猜測可能是現(xiàn)場PPT打錯了),支持30、60、100fps,640×480魚眼攝像頭,以及三維攝像頭。這與Tango手機的配置幾乎一致。
此前Google Tango項目的技術(shù)大神Johnny Lee接受沉浸感采訪時曾表示,Tango能夠?qū)崿F(xiàn)在同一空間內(nèi)讓用戶能看到其它用戶的位置,這與INAVR CAMERA的技術(shù)應(yīng)用描述非常類似。而Tango除了應(yīng)用到AR方面,也在探索在VR領(lǐng)域的應(yīng)用,只是目前該技術(shù)仍然存在一些局限,例如功耗發(fā)熱問題。
空間定位方面的技術(shù)專家王銳對沉浸感解釋了攝像頭Inside out定位技術(shù)的一些局限:
1、抖動問題,頭上戴攝像頭有一個問題,用戶搖頭晃腦的時候,觀察的圖像會劇烈變化。而相機的姿態(tài)稍微有變化,帶來的信息變化其實是特別大的,很難保證數(shù)據(jù)的平滑。不管是蟻視的Mark點方案還是SLAM,抖動問題是共有的,卡馬克之前也是受困于這個問題。
2、巨大的特征數(shù)據(jù)庫,一旦你行動的空間變大了,這個數(shù)據(jù)庫也會變得特別大,基本上手機就難以承受了。所以應(yīng)該說基于目前的輕量級硬件設(shè)備,不太可能做大空間的SLAM定位。
3、耗電量太大,所以SLAM方案有價值,但是得等到SLAM的asic芯片能量產(chǎn)之后,現(xiàn)階段更多的是科研成果。
對于數(shù)娛科技強調(diào)自己用的不是SLAM技術(shù),王銳表示即便用的不是SLAM,“估計也是類似的概念,或者就是結(jié)構(gòu)光,本質(zhì)上都是識別圖像和深度特征然后定位的”。
INAVR可能不是完整的SLAM,就是說它截取了SLAM過程中的某一部分來做運算,但是應(yīng)該還是基于圖像特征來做識別的方案。所以之前說的幾個問題它也都存在。
林云帆之后對雷鋒網(wǎng)解釋了自家的技術(shù),他表示他們用的是RGB攝像頭加算法來實現(xiàn)的空間定位,僅憑二維圖像就能判斷空間位置。王銳認(rèn)為,這應(yīng)該就是SIFT或者SURF,并不是很新的技術(shù),需要的計算量大。
(注:SIFT(Scale-invariant feature transform)是尋找特征(feature)的方法。發(fā)布于2004年,2年后,SURF(Speeded Up Robust Features) 發(fā)布。SIFT和SURF是目前最常用的特征算法,用數(shù)學(xué)方法來理解圖像的重要基礎(chǔ)。來源《跟Hoevo繆慶學(xué)習(xí)VR/AR/MR的空間定位技術(shù)》)
至于實際效果如何,目前僅看到現(xiàn)場不成功的演示,活動后并未提供這款產(chǎn)品的體驗,所以還需進一步去驗證。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。