0
雷鋒網(wǎng)消息,美國太平洋時間 2019 年 6 月 3 日上午 10 點,在 San Jose 市中心的 McEnery Convention Center,蘋果 WWDC 2019 全球開發(fā)者大會最值得關(guān)注的 Keynote 環(huán)節(jié)正式開幕。在這一環(huán)節(jié)中,除了硬件層面的 Mac Pro 和 Pro Display XDR 的發(fā)布值得關(guān)注,蘋果也發(fā)布了一系列面向開發(fā)者的開發(fā)工具,比如說如 ARKit 3、RealityKit、Core ML 3、SiriKit 等。
這些開發(fā)者工具有什么亮點?雷鋒網(wǎng)將帶你一探究竟。
AR:功能更加多樣化
縱觀前兩年的 WWDC 大會,蘋果對 AR 的重視只增不減;在 WWDC 2019 上,蘋果除了升級了 ARKit,還公布了一個新的高級 AR 框架 RealityKit 以及一個能夠輕松創(chuàng)建 AR 體驗的新應(yīng)用程序 Reality Composer。
ARKit 是在 2017 年推出的,是蘋果進軍 AR 的第一步;2018 年,蘋果將其升級為 ARKit 2,主要進行了兩項更新:與 Pixar 合作的新的文件格式 USDZ 和多人共享 AR。如今,ARKit 再次升級,迎來了 ARKit 3。
ARKit 3 引入了實時人體遮擋,它能夠知道人和 AR 對象的位置,對場景進行適當(dāng)?shù)卣趽?。不僅如此,它還能夠通過動作捕捉,跟蹤人類的動作,作為 AR 場景的輸入。同時,通過 ARKit 3,設(shè)備的前后兩個攝像頭現(xiàn)在可以同時使用,因此,用戶的面部表情也可以成為 AR 體驗的一部分。
除了能夠同時使用兩個攝像頭,多面部跟蹤和多人之間的實時協(xié)作會話也是 ARKit 3 的亮點所在,這能夠讓用戶擁有更多樣化的 AR 體驗。
ARKit 3 是在原有的 ARKit 基礎(chǔ)上進行的升級;不同于 ARKit 3,今年首次公布的 RealityKit 和 Reality Composer 顯得更為新穎。
RealityKit 是一個全新的高級框架,具有真實感渲染、相機效果、動畫、物理等功能,是專門為增強現(xiàn)實而構(gòu)建的。它能夠為多人 AR 應(yīng)用程序處理網(wǎng)絡(luò),這意味著開發(fā)人員不需要是網(wǎng)絡(luò)工程師就能夠開發(fā)共享 AR 體驗。
Reality Composer 是一個新的開發(fā)程序,它不僅面向 iOS,還能夠在 macOS 中使用。這個工具讓開發(fā)人員能夠可視化地創(chuàng)建 AR 場景,并且能夠在場景中添加移動、縮放和旋轉(zhuǎn)等動畫。不僅如此,開發(fā)人員還能夠?qū)赢嬤M行設(shè)置:當(dāng)用戶輕擊對象、用戶接近對象、或是激活其他觸發(fā)器時執(zhí)行操作。
在 WWDC 2019 上,蘋果介紹了 Core ML 3,這是蘋果機器學(xué)習(xí)模型框架的最新版本。
Core ML 是能在蘋果產(chǎn)品上使用的高性能機器學(xué)習(xí)框架,能幫助開發(fā)者快速地將多種機器學(xué)習(xí)模型融合到App中。它在 2017 年推出,2018 年升級為 Core ML 2,處理速度提升了 30%。
而如今,Core ML 升級為 Core ML 3,Core ML 3 將首次為設(shè)備上的機器學(xué)習(xí)提供培訓(xùn)。由于模型可以使用設(shè)備上的用戶數(shù)據(jù)進行更新,因此 Core ML 3 能夠幫助模型在不損害隱私的情況下與用戶行為保持相關(guān)。
不僅如此,Core ML 3 還支持高級神經(jīng)網(wǎng)絡(luò),支持超過 100 種層類型,這讓它在圖像、聲音識別上有更好的表現(xiàn)。另外,它能夠無縫地利用 CPU、GPU 和神經(jīng)引擎去提供最大的性能和效率。
Siri 是蘋果最先推出的 AI 應(yīng)用,也是世界上最受歡迎的語音智能助手之一;在 WWDC 2019 上,Siri 也得到了升級。
一個最為直觀的改變是,蘋果在 iOS 13 中采用了 Neural Text-to-Speech (TTS)技術(shù),讓 Siri 的語音聽起來更加自然,這也標(biāo)志著 Siri 不再借重人類語音樣本而發(fā)聲。
Siri 與 AirPods 的結(jié)合也是亮點之一。例如,當(dāng)用戶收到短信時,可以讓 Siri 在 AirPods 中直接讀出來,不僅如此,你還能夠利用 AirPods 快速回復(fù)短信。此外,Siri 在 HomePod 上的體驗也得到了大幅提升,顯得更加個性化;比如說,HomePod 可以識別家庭的不同用戶,而當(dāng)不同用戶的手機靠近 HomePod 時,它就能夠得知該用戶喜歡的播客和音樂。
值得注意的是,在今年的 WWDC 大會上,蘋果推出了 SiriKit。SiriKit 包含 Intents 和 Intents UI 框架,開發(fā)者可以用它們來實現(xiàn)應(yīng)用擴展;而應(yīng)用程序一旦采用 SiriKit,即使應(yīng)用程序本身沒有運行,也能夠通過 Siri 實現(xiàn)應(yīng)用擴展。
HomeKit 是蘋果在 2015 年推出的智能家居框架,它內(nèi)置于 iOS 8 中,用于與用戶家中連接的附件進行通信和控制。
在本次 WWDC 中,蘋果主要強調(diào) HomeKit 對用戶隱私的保護力度。比如說,蘋果首次推出了 HomeKit Secure Video,它能夠分析本地的智能家庭設(shè)備(比如安全攝像頭)的視頻,然后再將其加密,上傳到 iCloud。
和 HomeKit Secure Video 一樣首次亮相的還有獲得一系列第三方支持的 HomeKit 路由器,這個路由器能夠?qū)⒃O(shè)備隔離開,以防止整個網(wǎng)絡(luò)受到攻擊。
據(jù)了解,HomeKit 路由器提供的保護隱私的安全措施遠遠超出了家庭安全攝像頭的范圍,它的自動防火墻能夠與 HomeKit 配件進行連接,只要其中一個配件遭受到入侵,入侵者就沒有辦法訪問其他設(shè)備,阻止了個人信息泄露。
在本次的全球開發(fā)者大會上,蘋果發(fā)布了基于開發(fā)語言 Swift 建立的框架——SwiftUI。
Swift 是蘋果于 2014 年 WWDC 發(fā)布的新開發(fā)語言,可與 Objective-C 共同運行于 macOS 和 iOS 平臺,用于搭建基于蘋果平臺的應(yīng)用程序。Swift 的設(shè)計以安全為出發(fā)點,以避免各種常見的編程錯誤類別;2015 年,蘋果將 Swift 開源。
本次蘋果發(fā)布的 SwiftUI 正是基于 Swift 語言,它使用一組工具和 API,可在所有的蘋果平臺上提供一套統(tǒng)一的UI 框架,當(dāng)然也可以用于 watchOS、tvOS、macOS 等蘋果旗下的多個操作系統(tǒng),它具有自動支持動態(tài)類型、暗黑模式、本地化和可訪問性的特點。
舉例來說,新的 SwiftUI 編程框架擁有全新的交互式開發(fā)人員體驗,跟隨開發(fā)人員的更改,模擬設(shè)備上的預(yù)覽會立即更新。比如說,SwiftUI 使用圖形模塊放入代碼段,在擴展時添加行,下拉菜單使開發(fā)人員更容易更改參數(shù)。只需單擊一下,開發(fā)人員就可以切換到模擬器,應(yīng)用程序幾乎可以立即移動到實際硬件。
在發(fā)布會上,蘋果的 Craig Federighi 也演示了如何將一百行代碼簡化為大約十幾行,大大減少了開發(fā)者的開發(fā)流程。
值得一提的是,SwiftUI 還與其他 API 集成,如 ARKit;同時,它也針對某些從左到右來輸入的語言進行了專門的優(yōu)化——當(dāng)然了,SwiftUI 也原生支持暗黑模式。
從本次大會上發(fā)布的開發(fā)套件來看,蘋果主要著力于兩個方面,一是注重在 AR 與 AI 方面的技術(shù)生態(tài)開發(fā),二是側(cè)重在蘋果生態(tài)下的跨系統(tǒng)開發(fā)體驗,并完整地覆蓋旗下的 macOS、watchOS、iOS、tvOS 和 iPadOS 等操作系統(tǒng)。這不僅帶來了更好的用戶體驗,而且讓蘋果操作系統(tǒng)生態(tài)的每一個部分之間的聯(lián)系都更加緊密,從而更具吸引力。
可以說,通過這一次的 WWDC,我們已經(jīng)隱約看到整個蘋果應(yīng)用生態(tài)的未來。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。