2
本文作者: haoxiaoru | 2015-11-10 17:15 |
關于 Google 在虛擬現實技術上的打算,我們已經看到了一個廉價的紙盒子 Cardboard 和一個可容納16只 GoPro 相機的托架 Jump。從技術的角度看,前者用來消費內容,后者用來生產內容,這個布局無疑是完整的。但是,這里的“內容”究竟指什么?在 Google 眼中,虛擬現實技術的核心又是什么?
Jump 項目負責人在 Google 亞太區(qū)年度媒體會議(APAC)上的分享,或許能幫我們找到答案。 Steven Seitz 說,Jump 的意思就是“跳到另一個真實空間”,而 Google 要做的就是讓人們更便捷地,在另一個真實空間“身臨其境”。
“便捷”說的是廉價的 Cardboard 盒子,也說的是開始支持360° VR視頻的 YouTube;“身臨其境”說的是把全景真實世界收入眼中的 Jump,以及 Jump 背后先進的視覺補償算法。
這就是 Google 眼中的VR“內容”,不同于 Oculus 和 Vive 的虛擬場景游戲,也不同于 Hololens 的全息電腦交互,比后兩者要“輕”得多。
這也就解釋了 Google 為什么專注于“體驗不那么好”的 Cardboard 紙盒,而不是開發(fā)更先進的專門VR設備。Steven Seitz 承認 Cardboard 體驗確實不是最好的,同時詳細解釋了原因——Cardboard 試圖兼容多個不同尺寸的手機,需要用到標準不一的手機傳感器,性能千差萬別的運算處理器,而且手機屏幕并不是專為近距離觀看而設計的。但他說,從另一個角度看,手機是使用成本最低的,而且下一代手機一定會比現在的手機更適合VR。現在只是 VR 技術普及的早期,下一代手機的VR體驗一定會越來越好。
在領導 Jump 項目之前,Steven Seitz 已經將計算機視覺技術引入多個 Google 的產品,例如 Android 相機中的“鏡頭模糊”特性,通過算法讓手機也能拍出“背景虛化”的照片,就像單反和微單相機一樣。這里用到的主要算法是前景和背景的識別。
另一個項目是 Google 地圖的景點“3D Photo Tour”功能,在地圖里提供知名景點的多角度的畫面。這里用到的主要算法將用戶拍攝的多個角度照片對應到立體的空間中,還原實景。
正是這些在計算機視覺技術方面的積累,幫助 Steven Seitz 在捕捉360°全景圖像的探索上取得了突破。他介紹,第一代 Jump 其實是兩臺單反相機的組合,實現效果不錯,但需要支架可以旋轉,無法捕捉同一時間的全景圖像,更適合靜止的場景。
第二代 Jump 已經開始采用16只 GoPro 相機,通過視角組合,可以實現模擬左右眼看到的不同畫面。效果無疑得到提升,但這個方案依然有盲區(qū),對于視覺補充算法不夠友好。
第三代,也就是 Google 在 I/O 2015 大會上正式公布的最終版本,依然是 16 只 GoPro 相機,組合方式有了變化,便于對未捕捉到的視角進行算法上的補償。
據 Steven Seitz 稱,由 Jump 拍攝的視頻最終變成 360° 全景視頻還需要復雜的視頻合成計算。如果是一臺普通電腦的話,需要幾個月的時間進行計算,但使用 Google 的計算機集群只需要幾個小時就可以完成。最終制作完成的視頻上傳到 YouTube,就能通過 Cardboard 進行觀看了。
在 Google 的 Expeditions 教育項目中,VR技術已經得到運用。課堂上,老師可以帶領學生們回到遙遠的歷史場景中,或者遙不可及的海底世界,可以通過控制端程序引導學生看一只海龜。Google 地圖的街景更是已經積累了難以計數的全景圖像。
虛擬現實技術的核心是3D計算機視覺,是重建視覺空間的機器學習算法。當我們探索這樣一個新世界時,最簡單的工具加上大規(guī)模的圖像數據“訓練”才是 Google 眼中真正的通向未來之路。
雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知。