1
本文作者: no name | 2016-09-25 15:16 |
近日,谷歌發(fā)布了最新版機(jī)器學(xué)習(xí)系統(tǒng),通過識(shí)別圖像中的內(nèi)容,配上對應(yīng)文字,效果達(dá)到了歷史最佳。谷歌已經(jīng)在 TensorFlow 上開源了這項(xiàng)成果。自 2014 年以來,谷歌一直致力于這個(gè)項(xiàng)目,現(xiàn)在這個(gè)算法描述圖像的準(zhǔn)確率已經(jīng)高達(dá) 93.9% 。
因?yàn)樗麄冋谑褂靡粋€(gè)使用一個(gè)開始架構(gòu)的最新的迭代,所以對于谷歌團(tuán)隊(duì)來說,有個(gè)大問題是該算法是否可以做的比簡單識(shí)別圖像中的對象更多。要真正解釋和描述一張照片,人工智能不僅需要了解圖片中是什么,更要了解圖像中這些對象有什么相互關(guān)系。谷歌的開發(fā)人員表示這不只是一個(gè)數(shù)據(jù)的倒推。該算法必須能夠自然地理解圖像中的對象和它們的用途。
谷歌研究的博客發(fā)文說:“令人興奮的是,在展示全新情境時(shí),我們的模型的確可以產(chǎn)生準(zhǔn)確的配文,這顯示出系統(tǒng)對圖像中目標(biāo)和背景的理解更深了?!蓖瑯又匾氖牵八€學(xué)會(huì)了如何表示知識(shí)在自然的英語短語,盡管它只讀了人類給的說明字幕,沒有在接受其他額外的訓(xùn)練。”
至少從目前來說,相對于視頻,機(jī)器學(xué)習(xí)算法能更好地理解靜止圖像的內(nèi)容。
推薦閱讀:
洪小文獨(dú)家解讀: 直到AI可以自己編程 它才有資格跟 “路人甲” 比智能
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。