0
本文作者: 王金許 | 2018-03-01 00:00 |
雷鋒網(wǎng)按:去年 10 月,Google 在其發(fā)布會(huì)上推出了一款名為 Google Clips 的 AI 微型照相機(jī),售價(jià) 249 美元。這款小巧的產(chǎn)品面向家庭場景,在功能上主要集成了機(jī)器學(xué)習(xí)技術(shù),可對(duì)場景中的人物、寵物、環(huán)境等畫面進(jìn)行識(shí)別和分析,能夠讓攝像頭發(fā)現(xiàn)適合拍攝的畫面時(shí)進(jìn)行自動(dòng)拍攝。今天,這款 AI 相機(jī)正式對(duì)外開始售賣,科技媒體 9to5Google 整理了外媒對(duì)該產(chǎn)品的評(píng)測(cè)體驗(yàn),雷鋒網(wǎng)對(duì)此進(jìn)行了編譯。
今天 Google Clips 相機(jī)的第一批評(píng)論已然浮出水面,人們對(duì)此提供了各種各樣的評(píng)論,總體而言,Google Clips 目前還處于萌芽階段。
首先,Clips 的硬件部分非常簡潔,作為一款相機(jī)很多人表示它很容易就能被發(fā)現(xiàn)。除了那些涉及隱私的問題之外,The Verge 評(píng)論指出,它提高了人們不喜歡被拍照或者直接擺出姿勢(shì)拍照的機(jī)會(huì):
我發(fā)現(xiàn)人們立即看出它是一臺(tái)相機(jī),并對(duì)其作出反應(yīng)。這可能意味著當(dāng)人們看到它時(shí)會(huì)因此而避開,或者像我三歲的孩子一樣,走到它面前微笑或直接拿起它。這使得捕捉到自然的鏡頭變得非常困難,因?yàn)闉榱俗?Clips 真正發(fā)揮它的作用,它需要接近目標(biāo)。也許隨著時(shí)間的推移,家人會(huì)慢慢忽視它,那些隨意的鏡頭可能會(huì)出現(xiàn),但在我?guī)仔瞧诘臏y(cè)試中,他們并沒有適應(yīng)這款相機(jī)的存在。
同時(shí),在實(shí)際應(yīng)用中,評(píng)價(jià)者們很快發(fā)現(xiàn)相機(jī)需要有比 Google 介紹更多的操作功能。 TIME 有評(píng)價(jià)稱:
我最大的困難是與正確的構(gòu)圖拍攝有關(guān)。由于 Clips 最適合拍攝距離 3 到 8 英尺的拍攝對(duì)象,因此我需要找到足以接近寵物的桌子,使得相機(jī)可以固定在正確的角度。
Google 反駁了這樣這種說法,認(rèn)為 Clips 是一個(gè)“設(shè)置好即忘記”的設(shè)備。但與此同時(shí),對(duì)相機(jī)所需要做出的調(diào)整也暴露了拍照質(zhì)量的問題,The Verge 的評(píng)論中突出強(qiáng)調(diào):
該相機(jī)的超廣角視野(它捕捉類似于全畫幅數(shù)碼單反相機(jī)的 10mm 鏡頭所看到的東西),可以很容易進(jìn)行定位,并且確保你在畫幅內(nèi)獲得某些東西,但對(duì)人物肖像來說比較糟糕,因?yàn)樗鼤?huì)以不美觀的方式扭曲臉部輪廓。同樣地,任何接近畫幅邊緣的事物都會(huì)被很大程度上進(jìn)行扭曲。為了避免拍攝對(duì)象在獲取的圖像中很小,它們必須位于相機(jī)大約 10 英尺的范圍內(nèi),但是 Clips 定焦鏡頭的范圍大約為 3 英尺到無限遠(yuǎn),所以其范圍內(nèi)的主體看起來也并不會(huì)很銳利。
就捕獲珍貴的鏡頭而言,各方反應(yīng)褒貶不一。 Wired 的評(píng)論者可能用設(shè)備捕捉到了精彩畫面。
它擅長感應(yīng)寵物的活動(dòng)。我把它朝向我的貓,并試圖讓貓玩羽絨玩具。我把玩具圍在它頭上晃了整整一分鐘,而它不為所動(dòng),然后它終于拿起誘餌。當(dāng)我打開手機(jī)時(shí),唯一保存的拍攝鏡頭就是它撲到玩具上的時(shí)刻,那非常完美。
正如 USA Today 所評(píng)價(jià)的那樣:
一旦開啟,相機(jī)拍攝了許多圖像,大多數(shù)毫無緣由。它會(huì)定期自動(dòng)捕獲,大多數(shù)都很糟糕,有些也很棒,而且非常受歡迎,特別是我朋友的 4 歲女兒笑著跳起來的鏡頭。
但是,正如 TechCrunch 指出的那樣,Clips 不是完美的,需要很多的人為輔助,而這不是人們所設(shè)想的人工智能產(chǎn)品。
Clips 大多時(shí)候能捕捉重要時(shí)刻,但這并不完美,實(shí)際上還需要一些舊式的人性化策略。而且有一點(diǎn)不好的地方在于你最終只能獲得相機(jī)最終捕捉的一小部分圖像。
這些評(píng)論者們當(dāng)然也有共識(shí),那就是 Google Clips 最終還是可以拍攝出好照片的,但這需要時(shí)間、訓(xùn)練以及所需要的習(xí)慣上的改變。關(guān)于習(xí)慣上的改變,ZDNet 上很多以家長為中心的評(píng)論指出了 Clips 拍攝出好照片的例子,這也讓人們更加相信 AI。
前幾次使用它時(shí),我發(fā)現(xiàn)自己不斷進(jìn)入 Clips 應(yīng)用并查看所拍攝的內(nèi)容,然后嘗試調(diào)整位置或使用快門按鈕強(qiáng)制拍攝照片。
直到一場籃球比賽之后,當(dāng)我回顧它所捕獲的各個(gè)時(shí)刻之后,我意識(shí)到我需要放手并相信短片。我現(xiàn)在有我女兒的防守和搶籃板的 GIF 圖片,我一直坐著觀看比賽,但沒有拿到手機(jī)拍照(或查看短片)。
然而,The Verge 的評(píng)論不認(rèn)為它的這些用處能掩蓋硬件局限性。
我相信我可以通過練習(xí)更好地使用 Clips——提高更好地了解它的超廣視野,找到最佳角度和位置等等 - 但我不相信所付出的努力會(huì)獲得更好的結(jié)果。
Google 傾向于說人工智能處于“早期階段”。Engadget 則恰當(dāng)?shù)貙?duì) Clips 進(jìn)行了這樣的總結(jié):即使在珍貴瞬間發(fā)生時(shí) Clips 已經(jīng)設(shè)置并打開了,但還是不能保證它會(huì)捕獲到圖像。 在這一點(diǎn)上,只有上帝和谷歌知道人工智能會(huì)捕捉到何種圖像,而且你必須忍受這種不可預(yù)測(cè)性。
與此同時(shí),“早期”的說法也可以適用于這項(xiàng)新技術(shù)的使用者們。 而當(dāng) Clips 的 AI 獲得改進(jìn)和訓(xùn)練,以及消費(fèi)者有機(jī)會(huì)熟悉依賴這個(gè)小工具記錄珍貴時(shí)刻的行為后,重新審視使用情況將會(huì)變得十分有趣。
相關(guān)文章推薦閱讀:
《谷歌 AI 相機(jī) Clips 現(xiàn)開放預(yù)購,但出貨還得等上一個(gè)月》
《這個(gè)在 Google 發(fā)布會(huì)上最不起眼的硬件,卻是與 AI 走得最近的》
雷鋒網(wǎng)注:題圖來源于 Wired
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。