0
本文作者: 楊曉凡 | 2017-06-06 19:25 |
雷鋒網(wǎng)消息,今天凌晨的蘋果WWDC主題演講無疑是果粉的狂歡,它很有可能被捧為最棒的WWDC。這次大會(huì)蘋果有6大更新,包括了iOS 11、新macOS、升級(jí)版Macbook、驚艷的iMac Pro以及智能音箱HomePod等軟件硬件產(chǎn)品。
除了新硬件和新系統(tǒng),蘋果在機(jī)器學(xué)習(xí)方面的動(dòng)作終于給大家展示了成果。這次,蘋果不僅在iOS的自家應(yīng)用中更多使用了機(jī)器學(xué)習(xí),還把機(jī)器學(xué)習(xí)功能作為iOS API的一部分向開發(fā)者開放,希望開發(fā)者們也用機(jī)器學(xué)習(xí)的力量開發(fā)出更好的應(yīng)用程序。蘋果把這個(gè)機(jī)器學(xué)習(xí)功能叫做Core ML。負(fù)責(zé)軟件的蘋果高級(jí)副總裁Craig Federighi在昨晚的演講中做了總體介紹,雷鋒網(wǎng)AI科技評(píng)論結(jié)合官網(wǎng)的詳細(xì)信息給大家?guī)砀钊氲慕庾x。
在iOS的本身功能里,蘋果已經(jīng)嘗試用機(jī)器學(xué)習(xí)帶來更好的用戶體驗(yàn),比如在iPad上利用機(jī)器學(xué)習(xí)識(shí)別手寫便簽的文本、在iPhone上通過學(xué)習(xí)和預(yù)測(cè)用戶的使用習(xí)慣來讓iOS更省電、在照片app里自動(dòng)創(chuàng)建的回憶相冊(cè)以及面部識(shí)別,現(xiàn)在iOS11中的Siri也利用機(jī)器學(xué)習(xí)帶來了更多貼心的功能和更流暢的對(duì)答。
接下來,蘋果想讓開發(fā)者也利用機(jī)器學(xué)習(xí)、或者利用蘋果已經(jīng)開發(fā)出的功能做出更多美妙的應(yīng)用。
蘋果首先拿出了在已經(jīng)自家應(yīng)用中使用的Vision API和Natual Language API,分別負(fù)責(zé)圖像識(shí)別處理和自然語言識(shí)別處理。
Vision API,已經(jīng)運(yùn)用在照片app中,提供了如下功能:
面部追蹤
面部識(shí)別
地標(biāo)
文本識(shí)別
正方形識(shí)別
條碼識(shí)別
物體追蹤
圖像匹配
Natual Language API,已經(jīng)運(yùn)用在郵件和iMessage中:
語言檢測(cè)
符號(hào)化識(shí)別
詞形還原
對(duì)話分段
實(shí)體名稱識(shí)別
雷鋒網(wǎng)AI科技評(píng)論了解到,還有一個(gè)GameplayKit API也會(huì)開放,它的主要功能是評(píng)估決策樹。
這三個(gè)API開放以后,開發(fā)者就可以直接在自己的app中調(diào)用相關(guān)功能,無需自己重新開發(fā)機(jī)器學(xué)習(xí)模型就可以享用美妙的成果??梢云诖?,隨著iOS的更新,不管是系統(tǒng)app里還是用到這些功能的app,都會(huì)變得越來越準(zhǔn)確、越來越好用。
前幾個(gè)特定用途的API都運(yùn)行在Core ML之上。開發(fā)者如果想要運(yùn)行自己的機(jī)器學(xué)習(xí)模型,那它也會(huì)運(yùn)行在Core ML上。當(dāng)然啦,自己的模型還是要先訓(xùn)練好才能拿來在Core ML上運(yùn)行的,Core ML提供的只是多樣、高效的推理運(yùn)行環(huán)境。
Core ML可以支持多種網(wǎng)絡(luò)模型,可以支持深度神經(jīng)網(wǎng)絡(luò)、復(fù)發(fā)神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò),可以支持超過30種不同類型的層,還可以支持標(biāo)準(zhǔn)的支持向量機(jī)SVM、樹集成、廣義線性模型。
而且開發(fā)者可以把以上幾個(gè)第三方工具創(chuàng)建、訓(xùn)練好的機(jī)器學(xué)習(xí)模型直接拿到Core ML里面來用。
Core ML會(huì)運(yùn)行在本地,這樣數(shù)據(jù)的隱私性安全得以保證,而且可以跟蘋果系列OS的特色功能有更好的配合,另外也避免了網(wǎng)絡(luò)環(huán)境影響app功能的問題。
執(zhí)行性能方面蘋果已經(jīng)提前想了辦法,據(jù)Craig介紹,Core ML的執(zhí)行性能很高,通過Machine Learning Model Converter,在iOS設(shè)備上就會(huì)有很好的運(yùn)行表現(xiàn),執(zhí)行速度非??欤趫D像識(shí)別benchmark中比Google Pixel和三星S8快6倍。
根據(jù)官網(wǎng)資料,由于Core ML是基于iOS底層的Metal和Accelerate開發(fā)的,所以Core ML利用CPU和GPU資源的效率非常高,性能也可以全部發(fā)揮出來。
蘋果已經(jīng)在官網(wǎng)機(jī)器學(xué)習(xí)介紹頁面 提供了四種訓(xùn)練好的機(jī)器學(xué)習(xí)模型,模型轉(zhuǎn)換工具也在這個(gè)頁面中提供了下載。感興趣的開發(fā)者可以去下載試試了。
去年蘋果收購(gòu)了西雅圖的機(jī)器學(xué)習(xí)初創(chuàng)公司Turi以后,繼續(xù)在西雅圖成立了自己的人工智能研究實(shí)驗(yàn)室,聘請(qǐng)了華盛頓大學(xué)教授Carlos Guestrin作為機(jī)器學(xué)習(xí)總監(jiān)。Carlos Guestrin也是機(jī)器學(xué)習(xí)領(lǐng)域的頂尖人物之一,獲得過美國(guó)國(guó)家科學(xué)基金會(huì)的職業(yè)榮譽(yù)獎(jiǎng)和頂尖人工智能會(huì)議IJCAI的計(jì)算機(jī)與思想獎(jiǎng),而且也創(chuàng)辦過機(jī)器學(xué)習(xí)公司。
不過到了今天蘋果向開發(fā)者展示人工智能app開發(fā)的時(shí)候,明顯能感覺到蘋果的做法與Facebook、Google有所不同。相比于基于caffe/caffe2和TensorFlow的一大堆開發(fā)環(huán)境和云服務(wù),蘋果只是發(fā)布了一個(gè)可以在設(shè)備上運(yùn)行訓(xùn)練好的機(jī)器學(xué)習(xí)應(yīng)用的API,表現(xiàn)出蘋果似乎對(duì)自己做前沿研究和幫助開發(fā)者做前沿研究都沒什么興趣。
曾在2013年到2017年帶領(lǐng)過蘋果人工智能開發(fā)的Daniel Gross對(duì)蘋果公司的態(tài)度做了精確的表述:“蘋果的內(nèi)部目標(biāo)是造出偉大的產(chǎn)品,而不是發(fā)論文”。
所以蘋果沒有發(fā)布自己的機(jī)器學(xué)習(xí)開發(fā)平臺(tái)、沒有發(fā)布開發(fā)硬件,也沒有對(duì)外公布是否挖了機(jī)器學(xué)習(xí)專家到自己團(tuán)隊(duì),在這種態(tài)度下就都合情合理了。蘋果愿意開發(fā)人工智能應(yīng)用、愿意用人工智能改善用戶體驗(yàn),但是目前蘋果并沒有做開放的前瞻性研究。從以往的蘋果產(chǎn)品也可以看到,蘋果的風(fēng)格通常不是一旦有新技術(shù)就拿來做產(chǎn)品,而是等到成熟一些、確認(rèn)能夠?qū)τ脩趔w驗(yàn)帶來改善,才會(huì)憑借高超的工程能力把他們運(yùn)用在產(chǎn)品中。
這不免讓人對(duì)蘋果有所擔(dān)心。所有人都判斷人工智能/機(jī)器學(xué)習(xí)會(huì)占據(jù)越來越重要的位置、能夠做的事情越來越多,但當(dāng)年率先發(fā)布智能助理Siri的蘋果現(xiàn)在已經(jīng)在開發(fā)和研究環(huán)境、前沿研究成果、影響力幾個(gè)方面都落在了后面。不過,現(xiàn)在距離機(jī)器學(xué)習(xí)的全面突破還有一段距離,蘋果的姿態(tài)是否會(huì)在突破點(diǎn)到來之前有任何改變,我們拭目以待。
AI科技評(píng)論招業(yè)界記者啦!
在這里,你可以密切關(guān)注海外會(huì)議的大牛演講;可以采訪國(guó)內(nèi)巨頭實(shí)驗(yàn)室的技術(shù)專家;對(duì)人工智能的動(dòng)態(tài)了如指掌;更能深入剖析AI前沿的技術(shù)與未來!
如果你:
*對(duì)人工智能有一定的興趣或了解
* 求知欲強(qiáng),具備強(qiáng)大的學(xué)習(xí)能力
* 有AI業(yè)界報(bào)道或者媒體經(jīng)驗(yàn)優(yōu)先
簡(jiǎn)歷投遞:
lizongren@leiphone.com
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。