2
雷鋒網消息,近日Google+推出了以低帶寬看高清大圖的功能。換句話說,是一個用機器學習讓你節(jié)約流量的好方法。
目前在Google+上有不少優(yōu)秀攝影師建立了自己的博客,為社區(qū)做貢獻,并在上面分享他們拍攝的作品。不論是玩具、風景還是街頭藝術,每張照片背后都有著特別的故事,這樣的照片自然要用高清大圖模式來欣賞。
而在以前,要看高清大圖也就意味著要占用大量帶寬,一來是數(shù)據(jù)成本增加,另一點在于加載速度會變慢,導致用戶體驗不佳。在時間就是金錢的時代,怎么能把這么寶貴的時間用在等待loading上呢?
此外,對于數(shù)據(jù)價格高昂或是互聯(lián)網速度不夠給力的地區(qū),這個問題簡直是要老命呀!
而Google+的產品經理John Nack近日在谷歌官方博客上發(fā)表文章,表示他們采用了機器學習及RAISR的技術成功解決這一問題。
RAISR發(fā)布于去年11月,全稱是““Rapid and Accurate Image Super-Resolution”,即“快速精確的超分辨率技術”。雷鋒網此前也做過相關覆蓋,即將利用機器學習,把低分辨率圖片轉為高分辨率圖片。它的效果能達到甚至超過現(xiàn)在的超分辨率解決方案,同時速度提升大約十至一百倍,且能夠在普通的移動設備上運行。而且,谷歌的技術可以避免產生混疊效應 (aliasing artifacts)。
谷歌采用的是一對低分辨率、高分辨率圖片訓練該程序,以找出能選擇性應用于低分辨圖片中每個像素的過濾器,這樣能生成媲美原始圖片的細節(jié)。主要有兩個方式,一為直接讓過濾器在成對高、低分辨率圖片中直接學習,具有處理效率高的優(yōu)點;第二種方法先對低分辨率圖片應用低功耗的升采樣,再與高分辨率組合后進行學習,這種方法能夠更好利用硬件性能。
當時雷鋒網就曾做出預測,認為在移動設備上將大有可為,比如將消費者手機拍攝的照片轉化為媲美單反畫質的高清美圖。不過本次谷歌采取的是將照片以低流量的方式呈現(xiàn)同樣的高清效果。
根據(jù)博客中的說法,如果采用RAISR來顯示Google+上的高清圖片,谷歌能夠讓每張圖片所占用的帶寬最多減少75%。
從這張對比圖上我們可以看到,原來打開一張1000*1500像素的圖片,需要占用100kb,并且只能打開1/4像素大小的照片,而不是原圖。而如果采用了RAISR,同樣大小的圖片不僅能夠完整打開,而且只需要25kb。
Rack表示,“我們目前只在安卓設備流中采用這一功能,但目前我們每周已經用RAISR壓縮超過10億張圖片,并為使用這一功能的用戶節(jié)省了三分之一的帶寬。在未來幾周,我們計劃對這一功能進行推廣,以期為用戶節(jié)約更多的時間與數(shù)據(jù)成本。”
via google blog
雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知。