丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
專欄 正文
發(fā)私信給圖普科技
發(fā)送

4

Apple Photos智能識圖的本質是什么,以及它為什么比Google Photos晚來了整整一年?

本文作者: 圖普科技 2016-06-17 19:03
導語:Apple作為硬件為主體的公司,將人工智能運行在移動設備本地是其達到最大效應的方式。

雷鋒網(wǎng)按:本文作者系圖普科技工程師,雷鋒網(wǎng)原創(chuàng)首發(fā)。

Apple Photos智能識圖的本質是什么,以及它為什么比Google Photos晚來了整整一年?

| iOS 10的Photos用AI做什么?

在剛剛結束的舊金山蘋果全球開發(fā)者大會上,蘋果軟件工程高級副總裁 Craig Federighi 講述了新的照片管理功能 Photos。

Apple Photos智能識圖的本質是什么,以及它為什么比Google Photos晚來了整整一年?

在iOS 10的照片中,蘋果利用深度學習和計算機視覺技術徹底更新了照片應用程序,通過人臉識別和物體識別自動識別圖片內(nèi)容,給相冊中的人物分類。并且,新增的“回憶”功能,可以基于照片中的位置、人、場景和主題聚集在一起,然后選擇音樂配以創(chuàng)建“短期、中期、長期”的視頻或者電影。

例如,它會識別與旅行相關的所有照片,將它們集中置于一個相冊,也許命名為“家庭度假”;或者說它會識別散落在相冊各處的母親的照片,并將它們分組集中起來。

Apple Photos與Google Photos、Microsoft Photos有哪些差異?

簡單來說,對圖像的深度學習算法是通過多層的神經(jīng)網(wǎng)絡,不斷地提取圖像的高層次抽象具有強表達能力的語意層次的特征,即去偽存真的過程,有了很好的特征,就可以很好地對圖像進行各種處理。

Apple Photos智能識圖的本質是什么,以及它為什么比Google Photos晚來了整整一年?

機器視覺領域以前提取特征的方式多為人工設定,而現(xiàn)在深度學習的方式是通過大規(guī)模的數(shù)據(jù)讓算法自己去學,人的設定總是有局限的,而現(xiàn)在的深度學習可以在大規(guī)模數(shù)據(jù)的幫助下學習出人無法設計出的特征,這也是深度學習的魔力來源。當然現(xiàn)在一個基于深度學習的產(chǎn)品系統(tǒng)是非常復雜的,其還會結合時序信息,上下文的建模來達到驚人的能力。

無論是Apple,Google,Microsoft Photos里面使具體技術細節(jié)我們無從探知,畢竟這是這些公司關于人工智能的機密技術,但是我們還是可以從其提供的功能表象,再結合正在機器視覺領域掀起革命的深度學習技術,對其背后的技術原理進行一番推測。

Apple Photos智能識圖的本質是什么,以及它為什么比Google Photos晚來了整整一年?

無論是按人臉、地理位置、記憶分組,其背后本質上都是 image classification,clustering,sorting, tagging等機器視覺任務。現(xiàn)在流行的深度學習技術(無論是深度卷機網(wǎng)絡CNN還是LSTM長短時記憶網(wǎng)絡)近兩年來在此類任務上取得了驚人的成績,諸如Apple,Google等IT巨頭公司必然大量儲備了此類技術,同時加上去獨一無二的海量數(shù)據(jù)和用戶運用場景,使得這些公司可以運用這些深度學習技術將看起來很酷炫的機器視覺任務推向大眾。

Google于2015年率先推出了基于人工智能的Photos產(chǎn)品,其可以將用戶圖片聚合于people,places和things這三個類別中,Apple在剛剛結束的WWDC上推出的Photos也緊隨其后,推出了類似的功能,如人臉識別,和按官方稱的按memories進行分組(里面也包含預測location功能,同時能在map上顯示出來),具體不同的業(yè)務場景取決于各個公司對其客戶使用方式的把控,但是從業(yè)務邏輯和功能背后的技術上看并沒有顯出太大差異。

Apple Photos智能識圖的本質是什么,以及它為什么比Google Photos晚來了整整一年?

由于Google是一家互聯(lián)網(wǎng)導向公司,在云計算上有非常強的實力,所以Google photos是使用云的方式對客戶圖片進行存儲和各種人工智能的處理,這樣的方式使得Google可以使用其云端強大的計算能力去進行很復雜的運算處理,從而達到非常智能的效果,但是客戶需要將其照片同步至云端,這會帶來一些隱私的問題。

Apple Photos智能識圖的本質是什么,以及它為什么比Google Photos晚來了整整一年?

Apple作為硬件為主體的公司,將人工智能的功能運行在其公司的移動設備是其達到最大效應的方式也是最自然選擇,所以Apple的photos的智能處理運行于本地,這就使得用戶不需要連上云就可以享受到這些功能,這極大打消了用戶的隱私方面的擔憂,這確實是Apple一個很大的賣點。

另外,Apple在本地,尤其移動設備上,運行人工智能算法是具有很大意義的。如何在有限的計算資源上達到高性能和低功耗,是其著重考量的點,當前深度學習在模型能力探索到一定階段后(變深變強),學術界和工業(yè)界的注意力慢慢也轉向模型大規(guī)模使用的層次,即變小變快——

蘋果的人工智能在本地運行的背后應該很大依賴于現(xiàn)在學術界正在重點關注的研究領域,模型壓縮 (model compression),也就是在稍微損失準確率的情況下,讓所需計算量大幅度降低,使得深度學習的模型可以運行在計算能力受限的設備上。

Apple Photos智能識圖的本質是什么,以及它為什么比Google Photos晚來了整整一年?

這方面是一個巨大的挑戰(zhàn),至于Apple是否有獨有領先學界業(yè)界的黑科技使得photos做到低功耗高性能的運用,這就不得而知,所以Apple的photos本地運行深度學習算法更加令人期待。

同時我們也不能忘記IT另一個在深度學習,機器視覺技術上有深厚積累的微軟,微軟也有類photos產(chǎn)品,但是可能由于其并沒有太強的用戶場景,其photos并沒有作為一個獨立的產(chǎn)品推出,所以沒有引起太大關注,考慮到微軟在此方面非常好的技術,對此感到有點遺憾。

| 圖像識別技術在移動端應用,究竟難在哪里?

目前,圖像識別技術是基于深度學習算法多維度解讀圖像內(nèi)容,需要強大的計算能力來支撐機器的程序運行。即使是比較簡單的深度學習圖片識別,比如在2012年的ImageNet大賽上的也需要上億次的運算,而在四年后的今天,深度學習算法對一張圖片進行解讀都需要進行幾十億的運算,甚至上百億,但是這些都是在云端進行的運算,并且有專用的硬件系統(tǒng),所以能夠在較短的時間內(nèi)進行高速大量的運算。

根據(jù)我們的自己的經(jīng)驗,tuputech的圖像識別系統(tǒng),每天進行超過9億張的圖片識別,并且還需要較高的識別精確度,這對于模型的優(yōu)化、計算能力、帶寬的傳輸效率等要求都是非常高的。

但是手機端的本地計算不同于云端計算,如果在手機端進行如此高速、大量的運算,在算法層面技術難點主要還是在于這三個方面:

第一、模型的復雜程度,也就是模型的聰明程度、準確率、精確度等;

第二、計算時間,指計算一張圖片需要花多長時間;

第三、功耗,指的是計算一張圖片需要消耗的手機電池的電量

并且手機電池的續(xù)航能力一直是各個廠商想要攻破的難題,所以如果缺乏適配于手機端的計算能力,直接在手機上跑幾十億次的運算,可能只理解幾張圖片,手機電池就會被耗光。

另外,對于硬件能力的提升也是一大重點,怎么設計出更好的硬件去支持現(xiàn)在的深度學習算法,從而降低功耗、加快速度,我想Apple作為有硬件閉環(huán)的公司,在硬件上應該做了很大的定制化和創(chuàng)新, 使得基于人工智能的photos產(chǎn)品可運用在手機端,這也是Apple相對于其他互聯(lián)網(wǎng)巨頭得天獨厚的優(yōu)勢,不要忘記Apple是硬件導向的巨頭。

目前的人工智能基本都是在可控性較好的云端,而移動設備的計算能力和能耗都還不夠好,所以可能計算結果沒那么精準、計算速度沒那么快,但若移動設備裝配上人工智能的能力,無論是商業(yè)市場上還是真正改變?nèi)祟惖纳钌?,想象力是巨大的。所以Apple、Google和Microsof還是會選擇將圖像識別技術應用在手機端上,他們本身就是手機服務商,有這樣的市場需求,他們自然會開始重視深度學習在端上的應用,相對于其他的手機應用,這是他們將深度學習系統(tǒng)全部應用在端的一個集合。比如說蘋果的硬件包括手機、iPad、watch、Mac等,其所有的深度學習應用的程序和接口都是一樣的,擁有統(tǒng)一的神經(jīng)網(wǎng)絡庫。

畢竟移動端的應用更加貼近人類的生活。只要有市場需求,就有發(fā)展,正如我們現(xiàn)在的手機能力比當年登月的芯片的計算能力高了不知道多少倍,那些芯片幫助人登上了月球,而我們現(xiàn)在卻用更好的芯片刷微博。其實也是在說,技術發(fā)展得確實非???,可能現(xiàn)在覺得不大可能的事情,一兩年后可能人人都會在談說論道。

Apple Photos智能識圖的本質是什么,以及它為什么比Google Photos晚來了整整一年?

|iOS 10的Photos推出,還有更大的意義

但是這項自動將相冊分類功能看上去好像只是錦上添花的工作,如果這個功耗太大,而且準確率還不夠高,就會得不償失,用戶就不希望這個功能消耗更多的電量,甚至于很多客戶寧愿不要,因為他們肯定知道會消耗電量。

但是我們tuputech的技術控們還提了個問題,其實大家還會擔憂“隱私”的問題,因為一個太智能的東西在幫你打點東西,大多數(shù)人會有隱私被侵犯的感覺,所以智能更適合做一些不太敏感的分類。不然相冊里有一些黃圖,系統(tǒng)告訴你是黃圖并且自動幫你歸類,你會沒有安全感,同時會產(chǎn)生恐懼,最后對整個產(chǎn)品喪失信任,而且現(xiàn)在公眾確實還不大適應人工智能,還需要接受的時間。

但是人工智能、圖像識別在手機端的應用也是很廣泛的,在進入移動互聯(lián)網(wǎng)時代后,智能廣告、推薦已經(jīng)從輔助路徑轉變到了主路徑上,比如說手機淘寶,其首頁的商品推薦已經(jīng)個性化,很大程度上提升了首頁的分發(fā)能力;而今日頭條新聞客戶端,其主打特色也將智能推薦的資訊內(nèi)容放入了產(chǎn)品主路徑等。這些智能推薦引擎用大量的細分內(nèi)容協(xié)助廣告主細分了不同的用戶,更精準得進行廣告投放。

除此之外,現(xiàn)在也是一個移動視頻應用爆炸增長的時代,一個較大的直播平臺的用戶量在高峰期可以同時幾千萬、甚至上億人在線,但是目前直播獲益方式還是以與網(wǎng)紅分成為主。

如果通過圖像識別對主播進行分類,可以得出直播平臺的內(nèi)容是否健康,或者給主播打上標簽,平臺是否需要培養(yǎng)和扶持一些比較稀缺、受歡迎的主播。或者根據(jù)直播的視頻內(nèi)發(fā)出的所有圖像信息,包括人物、地點、活動、事物、背景等,在以人工智能技術作為基本支撐下,可以幫助用戶智能搜索所需信息,像KTV 、餐廳、教室等,機器人可以根據(jù)用戶偏好,智能推送相應直播視頻,幫助直播企業(yè)更好地進行用戶互動運營。這些都是可以提高產(chǎn)品和用戶體驗,或者企業(yè)想將這些信息流量變現(xiàn),均可按企業(yè)需求定制。

雷鋒網(wǎng)注:本文為雷鋒網(wǎng)原創(chuàng)約稿首發(fā)文章 ,轉載請聯(lián)系我們授權并注明出處和作者,不得修改內(nèi)容。

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知。

Apple Photos智能識圖的本質是什么,以及它為什么比Google Photos晚來了整整一年?

分享:
相關文章

專欄作者

基于圖像識別技術多維度解讀圖片和視頻
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說