0
近日,英特爾中國研究院舉辦了一場媒體開放日,現(xiàn)場英特爾中國研究院院長宋繼強介紹了他們的研究方向和目前取得的一些成果,射程涵蓋 HERO 智能機器人平臺,人臉分析及情感識別技術,神經(jīng)擬態(tài)芯片,當然,還有 5G 和 VR。
說起來,英特爾很早便開始關注 VR 了。從 2016 年開始,雷鋒網(wǎng)發(fā)現(xiàn),他們曾在2017 年年初的 CES 上展示過一段六自由度視頻,六月份的 E3 大展期間亮相過 VR 無線方案,甚至還宣布將為多屆奧運會進行 VR 直播,以及還有很多他們沒有公布的事情。
雷鋒網(wǎng)覺得,對 VR 的研究,英特爾下了不少功夫。而在這次的媒體溝通會上,來自英特爾中國研究院通信架構實驗室的研究員詳細地介紹了 5G 和 VR 的結合,未來 5G 將如何助力 VR 的發(fā)展。
雷鋒網(wǎng)將演講全文整理如下。
通信架構實驗室主要是致力于無線通信基礎架構的研究,我們主要是采用通信和計算結合的方式打造高效的端到端的通信系統(tǒng),提升用戶體驗。今天我給大家介紹的主題主要是匯報我們 5G 和 VR 結合的工作——“通信和計算融合,引領VR未來”。
主要介紹三個部分:
第一,5G 主要面對的數(shù)據(jù)洪流,從架構上怎么支持 5G 的數(shù)據(jù)洪流。
第二,介紹研究院對于遠程沉浸式互動的愿景。
第三,通信與計算融合解決移動 VR 關鍵問題。
我們研究工作的重點主要是通信和計算融合的方式,為什么需要通信和計算融合呢?大家如果從互聯(lián)網(wǎng)廠商的角度可能認為通信系統(tǒng)基本上對我來說是透明的,我不需要知道你通信到底做了哪些事情,只需要把信息從一端傳到另一端就可以,為什么通信和計算要結合起來,有什么好處?
主要的出發(fā)點是數(shù)據(jù),怎么處理數(shù)據(jù)和傳輸數(shù)據(jù),特別是 5G 將來所要面對的數(shù)據(jù)洪流。大家肯定都是對摩爾定律非常熟悉,宋院長(英特爾中國研究院院長宋繼強)也介紹摩爾定律如何實現(xiàn)每18個月我們芯片的能力翻一番。
而在通信領域,通信系統(tǒng)通信速率的發(fā)展以及我們對移動通信數(shù)據(jù)的需求,甚至是超過了摩爾定律。比如說 2016 年全球的移動數(shù)據(jù)通信量是增長了 63%,如果按照這個速度下去,兩年實際上就翻了 2.5 倍左右。它的增長速率甚至超越了摩爾定律的發(fā)展。為什么?借用十九大的一句話,滿足我們日益增長的對美好文化生活的需求。這是一個指數(shù)定律。
按照這個速率增長下去,到 2020 年 5G 部署的時候我們將面對什么呢?我們將面對 50EB 數(shù)據(jù)的流量,每個月的移動數(shù)據(jù)流量在今天的基礎上再增長5倍。EB 是 10 的 18 次方。同時,我們知道 5G 支持物聯(lián)網(wǎng)的應用,特別是我們提的自動駕駛,自動駕駛的汽車每天產(chǎn)生的數(shù)據(jù)是 4 個 TB,如果大家對硬盤比較熟悉,一天產(chǎn)生的數(shù)據(jù)容量要充滿非常大的硬盤,每年 365 天需要買 365 個硬盤來存儲整個自動駕駛的數(shù)據(jù)。特別是自動工廠智慧城市里的互聯(lián)工廠,一天的數(shù)據(jù)量,像芯片廠、封裝廠一天的數(shù)據(jù)流量就是 1TB,一天要買幾百塊硬盤來裝滿你的數(shù)據(jù)。對于 5G 來說我們所要面臨的數(shù)據(jù)洪流是非常巨大,對整個通信系統(tǒng)和計算系統(tǒng)來說都是一個巨大的挑戰(zhàn),當然也意味著巨大的商機。
今天圍繞的主題是VR和5G,為什么VR需要特別大的數(shù)據(jù)容量,為什么VR在數(shù)據(jù)洪流里會占據(jù)大量的流量呢?目前互聯(lián)網(wǎng)的最主要的傳輸內容是視頻,將來VR是代表更高質量視頻的未來。
舉個例子,如果大家看一張很高清的圖片,放在手機上或者是放在電視上會覺得現(xiàn)在的清晰度已經(jīng)超出你的想象,非常的清楚。但是如果你把一個同樣的圖片放在一個VR眼鏡上,同樣的分辨率會變得非常模糊,為什么?主要是視角的原因,我們在手機和電視機上看圖片的時候,你的視角只有10到30度左右,在VR眼鏡上拓展到100度、120度、150度,一下子增加了好幾倍,縱向還有增加的倍數(shù)。為了達到非常好的高清要求,對VR的顯示來說需要25倍到40倍的分辨率增加,這樣它的流量會變得非常高。
比如我們要打造一個非常好的VR系統(tǒng),現(xiàn)在的系統(tǒng)是達不到這個要求,你需要16K到24K超級高清的VR。不壓縮的話,容量會達到500Gbps,每個月的容量是1Gbps,如果是500Gbps,可能是十幾年的容量一秒鐘就過去了,即使壓縮之后也達到1Gbps,同時VR對顯示的延遲非常敏感,對傳輸?shù)娜蒎e性也是非常敏感。所以對5G來說,特別是高質量的虛擬現(xiàn)實和增強現(xiàn)實,對5G的通信系統(tǒng)和計算系統(tǒng)來說都要著力應對。
我們主要研究系統(tǒng)架構,在5G系統(tǒng)架構里面怎么樣滿足一個速率洪流的要求,主要是采用計算和網(wǎng)絡融合的方式,在端到端的部署、計算和網(wǎng)絡系統(tǒng)來滿足數(shù)據(jù)處理和傳輸?shù)囊蟆?/strong>
在3G、4G時代,網(wǎng)絡是網(wǎng)絡,數(shù)據(jù)和云計算是云計算功能,對于一個云計算的應用來說,網(wǎng)絡基本上是透明的,它的傳輸容量在接入網(wǎng)端的傳輸容量和核心網(wǎng)的傳輸容量,骨干網(wǎng)的傳輸容量是一致的,你發(fā)的任何一個請求都會到云計算中心處理,然后再把結果返回給你,這樣在整個容量是一個一致的管道的容量。
大家應該都有親身的體驗,如果你寬帶擴容了50兆,然后再擴到100兆或1Gbps,其實你的感覺并不明顯,你的容量并不是受限于接入網(wǎng)端,而是在核心網(wǎng)、骨干網(wǎng)或者數(shù)據(jù)中心里面,沒有辦法支持那么高速率的應用。如果你的小區(qū)里面放一個視頻服務器,你去訪問視頻服務器的時候會感覺看起高清大片來特別流暢,主要是因為內容下沉。
在4G的后半期我們已經(jīng)引入了邊緣計算,邊緣計算的目的主要是應對在網(wǎng)絡邊緣的數(shù)據(jù)傳輸和處理的要求。我們加入邊緣計算,可以對很多邊緣產(chǎn)生的數(shù)據(jù)進行實時的處理和反饋,比如智能汽車產(chǎn)生的數(shù)據(jù),智能工廠產(chǎn)生的數(shù)據(jù),這樣就不需要把所有的數(shù)據(jù)傳到云計算中心再進行處理。它有兩點非常明顯的好處,第一是時延非常低,滿足物聯(lián)網(wǎng)的應用。第二是減少核心網(wǎng)的帶寬。雖然我們的5G會將邊緣的容量擴展得很大,比如說100倍到1000倍左右,核心網(wǎng)不可能擴展到1000倍。
在5G和下一代會是什么樣?會發(fā)生什么呢?在第三階段的時候,我們認為它的計算能力會進一步的下移到智能終端。比如,車或者手機實際上就是一個智能終端,家里的傳感器和路上的傳感器很多都可以連到智能終端上,5G的網(wǎng)絡會把整個物聯(lián)網(wǎng)設備、智能終端和邊緣計算的能力、云計算的能力統(tǒng)一起來,所以我們能夠打造一個端到端的網(wǎng)絡,同時也是一個端到端的計算平臺,來應對5G的數(shù)據(jù)洪流。
大家肯定是對AR/VR非常熟悉,我們對未來AR和VR的認識和愿景是什么。我們主要是提出遠程沉浸式互動的未來,什么意思?未來,你帶著一個VR眼鏡,我們可以用5G的網(wǎng)絡把你和一個智能的機器人連接起來。
中國研究院也有非常多的智能機器人方面的研究,我們把網(wǎng)絡和機器人連接起來,同時機器人能夠把360度視頻和聲音實時的傳輸?shù)娇蛻舳?,你可以對機器人進行控制和真實的世界進行互動。這能達到什么效果呢?就好像在任何時間你都會瞬間的轉移到世界上任何一個角落,和一個真實的環(huán)境進行互動,這是我們設想的一個超越目前AR和VR遠程沉浸式互動的未來。
能支持什么樣的應用呢?我們覺得非常多的應用,像遠程購物,你現(xiàn)在是在北京,你可以一下子就跑到美國的超市里進行購物,從貨架上親自把你想要的東西選下來,你就再也不用擔心假貨。還有遠程的旅游,比如說你在一個你喜歡的時間和地點,比如說慕田峪剛下過雪,或者夕陽西下的時候,一下子跑到那里,可以親自體驗一下那個美景。
還有社交的功能,大家回家都非常少,在外地工作的時候,有了我們這個系統(tǒng)可以瞬間轉移到你的家里,和你的父母進行聊天,好像你真的回到家里身臨其境一樣,這是我們設想的遠程沉浸式互動的未來。我們用什么樣的技術實現(xiàn)呢?下面跟大家介紹一下。
VR最主要的肯定是要做內容,我們剛才也說目前的VR內容2K、4K,它的清晰度還差得很遠,我們怎么樣產(chǎn)生高質量VR的內容呢。如果你體驗過VR的視頻可能會有一些體驗,目前的VR視頻除了是好萊塢制作的大片,基本上VR視頻內容都是2D的,因為3D VR視頻生成是非常復雜的,制作難度也大。
所以,我們英特爾中國研究院研究的目標聚焦兩點:
第一,3D VR視頻能實時合成,能夠產(chǎn)生高質量的內容。
第二,怎么實時產(chǎn)生內容滿足我們對遠程沉浸式未來的要求。
我們的設備大家可以看到它有非常多的攝像頭,有17個,每個攝像頭是2K的分辨率,為什么需要這么多的攝像頭,實際上主要是為了在水平方向能夠在任意方向差值生成一個3D的內容,需要每個攝像頭之間有比較多的重合區(qū)域,所以需要非常多的攝像頭。
3D VR的合成算法非常復雜,特別是產(chǎn)生一個沒有瑕疵的3D視頻,你要消除它的鬼影效應,消除拼接的瑕疵,采用非常復雜的光流算法,即使是目前最強大的服務器和最強大的臺式機也很難完成實時性的功能。
我們開發(fā)了分布式的處理平臺,是非常高密度的分布式處理平臺,是2.5U高的機箱,在這里可以插入12個至強CPU卡,同時插入12塊FPGA卡,中間有600G左右的互聯(lián)能力。對視頻VR處理來說,對實時合成來說一個主要的功能就是怎么樣實現(xiàn)精準的同步,從處理的角度實現(xiàn)精準的同步,這個平臺也可以支持。通過我們算法的研究,通過實時處理的加強,希望我們能夠真正的達到產(chǎn)生一個非常高質量的,比如說現(xiàn)在產(chǎn)生8K的高清的內容,滿足將來的要求。
我們有了內容之后,下一個面臨的問題是怎么樣把這些內容傳輸?shù)娇蛻舳恕偛耪f了VR的傳輸要求是非常高,整個的帶寬需要是100兆到1Gbps。同時,延遲需要非常低,只有十幾毫秒到二十多毫秒。目前的網(wǎng)絡基本上是沒有辦法滿足這個要求,所有移動的網(wǎng)絡是有接入網(wǎng),有核心網(wǎng),有骨干網(wǎng),所以在任何的兩個用戶之間傳輸,即使你是在離得很近的兩個用戶傳輸,實際上要走一大圈,中間需要經(jīng)過非常多的設備,即使優(yōu)化得很好,最好的效果只能達到50毫秒到100毫秒。
在這種情況下怎么能夠滿足VR處理實時性的十幾毫秒的要求,特別是移動的時候跟上你的顯示速度,這只有十幾毫秒。我們提出一種方法——邊緣計算,通過通信和計算結合的方法,采用邊緣計算的能力能夠使VR達到實時傳輸?shù)囊?,解決從顯示到頭顯的要求,解決從帶寬到時延的要求。
首先,我們生成VR的視頻內容之后,把360度的全景視頻通過壓縮傳到邊緣服務器,在邊緣服務器端有整個全景的內容,可以同時服務多個用戶。每個用戶會把自己的視角信息,你在看哪個方向傳給邊緣服務器,邊緣服務器把視角信息的內容發(fā)給用戶。
這樣有兩個特別顯著的好處:
一是通過通信和計算結合的方式,采用邊緣服務器能夠顯著降低從移動到顯示的時延,本來是50到100毫秒,現(xiàn)在只是10到20毫秒。
二是能夠大大降低無線通信帶寬的需求。如果不采用這種方法需要1Gbps帶寬,采用這種方法可以降低2到3倍。通過這種方法我們能夠打造一個高效的5G網(wǎng)絡傳輸系統(tǒng)。
還有一點比較重要的:可靠性。因為VR的傳輸它對數(shù)據(jù)傳輸?shù)目煽啃砸蠓浅8?/strong>。一個視頻如果離得很遠,看電視的時候突然有一些瑕疵可能感覺比較明顯,但不會感覺特別不舒服,但是如果一個VR眼鏡在顯示一個視頻的時候,如果突然感覺有一幀丟失了,就需要很長的時間才能恢復出來,這時候會感覺到特別的不舒服。
怎么樣滿足這個要求呢?當然,如果我們僅僅從通信設計的角度去設計一個速率非常高,延時非常低,同時容錯性非常好的系統(tǒng),這也是可以做得到的,但是整個的成本和效率就會非常低。我們也提出用通信和計算結合的方式,我們把整個頭顯端的計算功能增強,在頭顯端做一些容錯性處理,比如把異步時間扭曲的功能加到頭顯端。
舉個例子,通過邊緣服務器或者是個人的筆記本,把視頻、游戲傳到頭顯端,第一幀會正確接收,當?shù)诙瑐鬏斒〉臅r候,頭顯端會用前一幀的內容根據(jù)目前頭顯的位置信息和視角信息進行旋轉,重新生成第二幀的內容,這時候用戶對整個傳輸失敗的感覺不會太明顯,甚至沒有丟失的感覺,這樣用戶體驗會大大提升。我們將這種增強異步時間扭曲的功能加入到移動VR頭顯端,特別是加入到手機端。通過增強頭顯端和手機端的功能,提高整個系統(tǒng)的可靠性和體驗,顯著的降低VR帶寬的需求和整個設計的難度。
這是我們錄的兩段視頻,左邊是英特爾的移動VR系統(tǒng),右邊是第三方的系統(tǒng)。可以看到左邊的系統(tǒng)是我們用手機拍攝下來的,是非常流暢,但是右邊因為是完全靠這種PC的功能,手機端的功能比較弱,會顯得非??D。
還有另外一點最重要的,也是做研究經(jīng)常容易忽略的一件事情,你的應用在哪里來。如果我們做了一個VR系統(tǒng),所有的應用要重新寫,所有的內容要重新生成,那是沒有辦法建立起一個生態(tài)系統(tǒng)的。
我們做的事情就是怎么把我們的移動VR移植到PC端、邊緣服務器端和主流的平臺上,我們開發(fā)了VR無線適配,可以無縫的接到Steam平臺,Steam運行的游戲和內容就可以在移動VR上播放和運行。我們把顯示內容從PC或者邊緣服務器顯示到移動VR端,同時移動VR端的感知信息,比如傳感器的信息會發(fā)給Steam平臺,能夠將一個PC VR的體驗和基于云計算VR的體驗帶到真正的移動VR端。
最后總結一下,我們通信架構實驗室主要是在5G和VR結合方面的研究,通過通信和計算融合的方式打造一個高效的通信和計算系統(tǒng),能夠將來解決一些移動VR端的關鍵問題,通往我們所設想的遠程沉浸式互動的未來。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知。