丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能 正文
發(fā)私信給sanman
發(fā)送

0

發(fā)美照時(shí)打上“#”,還能幫Facebook提升圖片識(shí)別率喲

本文作者: sanman 編輯:郭奕欣 2018-05-07 17:01
導(dǎo)語:Facebook科學(xué)家分享基于主題標(biāo)簽的深度學(xué)習(xí)方法

雷鋒網(wǎng) AI 科技評(píng)論按:近日 Facebook 科學(xué)家團(tuán)隊(duì)發(fā)布基于主題標(biāo)簽的深度學(xué)習(xí)方法,使用已有的擁有主題標(biāo)簽的圖片作為訓(xùn)練數(shù)據(jù),從而大幅提升了訓(xùn)練數(shù)據(jù)集的大小。數(shù)據(jù)集的增大必然會(huì)引起圖片錯(cuò)誤率的提升,他們同時(shí)發(fā)布了處理圖片噪音的方法。他們團(tuán)隊(duì)的這項(xiàng)工作對(duì)于現(xiàn)今的圖片識(shí)別領(lǐng)域有著廣泛而深遠(yuǎn)的影響。雷鋒網(wǎng)對(duì)全文翻譯如下。

圖片識(shí)別是AI 的一個(gè)支柱領(lǐng)域,目前也是 Facebook 關(guān)注的領(lǐng)域之一。我們的研究人員與工程師專注于開拓 CV 的邊界,并將相關(guān)工作應(yīng)用到生活中從而服務(wù)世界。例如,利用 AI 生成圖片的音頻提示來照顧一些視力受損的用戶。為了改善我們的 CV 系統(tǒng)并使他們可以持續(xù)識(shí)別和分類各種各樣的物體,我們需要數(shù)以十億級(jí)的照片數(shù)據(jù)集,而不是今天常用的百萬數(shù)據(jù)集。

因?yàn)楝F(xiàn)在用來訓(xùn)練模型的數(shù)據(jù)集一般需要人為標(biāo)注的,所以簡單增加圖片(無標(biāo)注)數(shù)量的方法并不能很好的提高識(shí)別效果。這種計(jì)算密集型的監(jiān)督學(xué)習(xí)通常可以表現(xiàn)的很好,但缺點(diǎn)是這種手動(dòng)標(biāo)注的數(shù)據(jù)集的大小受到「手動(dòng)」這個(gè)特點(diǎn)的嚴(yán)重限制。舉個(gè)例子,現(xiàn)在 Facebook 用一個(gè)有 5000 萬張圖片的數(shù)據(jù)集訓(xùn)練模型,但「手動(dòng)」將這個(gè)數(shù)據(jù)集拓展到 10 億級(jí)是非常難實(shí)現(xiàn)的。

現(xiàn)在我們的研究員和工程師通過訓(xùn)練帶有主題標(biāo)簽的數(shù)據(jù)集的方法解決了這個(gè)問題,這個(gè)超大數(shù)據(jù)集包含了 35 億張圖片和 17,000 個(gè)主題標(biāo)簽。這個(gè)方法的關(guān)鍵點(diǎn)在于使用已經(jīng)存在的由用戶提供的公開主題標(biāo)簽來取代手動(dòng)分類的標(biāo)簽。這個(gè)方法在我們的測試中表現(xiàn)良好。通過使用這個(gè)包含 10 億張圖片的版本訓(xùn)練模型,我們的模型取得了 85.4% 的識(shí)別準(zhǔn)確度,打破了 ImageNet(常用基準(zhǔn)測試工具)的準(zhǔn)確度記錄。這項(xiàng)工作除了在圖像識(shí)別性能上有了真正的突破,還為如何從監(jiān)督學(xué)習(xí)遷移到弱監(jiān)督學(xué)習(xí)提供了重要思路,即使用已經(jīng)存在的標(biāo)簽(如本實(shí)驗(yàn)中的主題標(biāo)簽)而不是專門為 AI 訓(xùn)練而準(zhǔn)備的標(biāo)簽。我們打算在未來開源這些模型的嵌入部件,這樣其他研究團(tuán)隊(duì)就可以在這個(gè)表示方法上使用、建立高級(jí)任務(wù)。

大規(guī)模使用主題標(biāo)簽

人們通常會(huì)為他們的照片打上主題標(biāo)簽,我們由此認(rèn)為這是模型訓(xùn)練數(shù)據(jù)的一個(gè)理想來源。我們使用主題標(biāo)簽的另一個(gè)考量是主題標(biāo)簽可以簡要概括某一類事物,從而讓圖片更加容易被理解。

但主題標(biāo)簽經(jīng)常會(huì)涉及到不直觀的概念,例如 #tbt 代表著「throwback Thursday」。有時(shí)又會(huì)模棱兩可,例如標(biāo)簽 #party 既可以用來描述一項(xiàng)活動(dòng)也可以表示一項(xiàng)設(shè)置。對(duì)于識(shí)別圖像這個(gè)目的來說,標(biāo)簽被用作弱監(jiān)督數(shù)據(jù),那么模棱兩可或者不相關(guān)的主題標(biāo)簽就成了會(huì)誤導(dǎo)深度學(xué)習(xí)模型的「不相關(guān)標(biāo)簽噪音」。

這些噪音標(biāo)簽是我們大規(guī)模性訓(xùn)練必須關(guān)注的核心問題,為此我們研發(fā)出新的基于主題標(biāo)簽的監(jiān)督學(xué)習(xí)方法,這種方法針對(duì)圖像識(shí)別實(shí)驗(yàn)進(jìn)行了專門的調(diào)整。這些調(diào)整包括對(duì)每個(gè)圖片進(jìn)行多標(biāo)簽處理(人們通常給圖片打上不止一個(gè)標(biāo)簽),按主題標(biāo)簽同義詞進(jìn)行排序,以及平衡常見標(biāo)簽與不常見標(biāo)簽對(duì)模型的影響。為了讓標(biāo)簽可以更好的應(yīng)用于圖片識(shí)別訓(xùn)練,我們團(tuán)隊(duì)先訓(xùn)練了一個(gè)大規(guī)模的主題標(biāo)簽預(yù)測模型。這是一次效果極佳的遷移學(xué)習(xí),結(jié)果這個(gè)模型分類后的圖片可以廣泛應(yīng)用于其他 AI 系統(tǒng)。這項(xiàng)新的工作基于 Facebook 之前的研究,比如基于評(píng)論、主題標(biāo)簽和視頻的圖像分類調(diào)查。這次對(duì)于弱監(jiān)督學(xué)習(xí)的探索是 AML(Facebook's Applied Machine Learning)和 FAIR(Facebook Artificial Intelligence Research)廣泛合作的成果。

規(guī)模和性能雙雙破紀(jì)錄

由于一臺(tái)機(jī)器要花一年多時(shí)間才能完成模型訓(xùn)練,我們發(fā)明了一種新方法將任務(wù)分發(fā)給 336 塊 GPU,這樣就將訓(xùn)練時(shí)間縮短至一周。隨著訓(xùn)練模型越來越大(我們研究中使用的最大的模型是有 8.61 億個(gè)參數(shù)的 ResNeXt 101-32x48d),這種分布式訓(xùn)練也越來越重要。除此之外,我們還設(shè)計(jì)了一個(gè)移除副本的方法,這種方法可以防止我們把待評(píng)估的圖片用來訓(xùn)練模型—一個(gè)困擾此領(lǐng)域相關(guān)研究的問題。

盡管我們都希望圖片識(shí)別的性能提升,但結(jié)果著實(shí)給人驚喜。我們使用 10 億張圖片(含 1500 個(gè)主題標(biāo)簽)訓(xùn)練出的模型在 ImageNet 上取得了 85.4% 的準(zhǔn)確率。這是當(dāng)前 ImageNet 最高識(shí)別率,這成績比以往最佳模型的識(shí)別率高了 2%。考慮到卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)的影響,目前可見的性能提升更加顯著:使用數(shù)以十億級(jí)的圖片(含主題標(biāo)簽)進(jìn)行深度學(xué)習(xí),對(duì)識(shí)別率的提升高達(dá) 22.5%。

在另外一個(gè)基準(zhǔn)測試—COCO 物體檢測挑戰(zhàn)中,我們發(fā)現(xiàn)使用主題標(biāo)簽進(jìn)行預(yù)訓(xùn)練可以將模型的平均精度提升 2%。

發(fā)美照時(shí)打上“#”,還能幫Facebook提升圖片識(shí)別率喲

這些是對(duì)圖像識(shí)別和物體檢測的基礎(chǔ)改進(jìn),代表著計(jì)算機(jī)視覺前進(jìn)了一步。但是我們的實(shí)驗(yàn)也揭示了與大規(guī)模訓(xùn)練和噪音標(biāo)簽相關(guān)的具體機(jī)遇和挑戰(zhàn)。

盡管提升訓(xùn)練數(shù)據(jù)集的大小是非常有用,選擇和特定識(shí)別任務(wù)相匹配的主題標(biāo)簽一樣重要。我們對(duì) 10 億張圖片(1500 個(gè)主題標(biāo)簽且與 ImageNet 數(shù)據(jù)集中的類相匹配)進(jìn)行訓(xùn)練得到的結(jié)果要優(yōu)于對(duì) 10 億張圖片(17000 個(gè)主題標(biāo)簽)進(jìn)行訓(xùn)練的結(jié)果。另一方面,對(duì)具有更大視覺多樣性的任務(wù),使用 17,000 個(gè)主題標(biāo)簽進(jìn)行訓(xùn)練的模型的性能改進(jìn)變得更加明顯,這表明我們應(yīng)該在未來的訓(xùn)練中增加主題標(biāo)簽的數(shù)量。

增加訓(xùn)練數(shù)據(jù)量通常對(duì)圖像分類有好處。但它可能會(huì)產(chǎn)生新的問題,包括圖像中物體定位能力的明顯下降。我們還了解到,我們當(dāng)前最大的模型遠(yuǎn)沒有充分利用 35 億圖像訓(xùn)練集的數(shù)據(jù),這意味著我們應(yīng)該訓(xùn)練更大的模型。

更大規(guī)模,自我標(biāo)記的未來圖像識(shí)別

這項(xiàng)研究的一個(gè)重要結(jié)果—甚至比在圖像識(shí)別方面的各項(xiàng)改進(jìn)還要重要—就是確認(rèn)使用主題標(biāo)簽去訓(xùn)練計(jì)算機(jī)視覺模型完全可行。由于我們使用了一些基礎(chǔ)技術(shù)來合并同類主題標(biāo)簽以及削弱標(biāo)簽權(quán)重,我們完全不需要復(fù)雜的「清理」程序來消除標(biāo)簽噪音。相反,我們可以用主題標(biāo)簽訓(xùn)練我們的模型并且對(duì)訓(xùn)練過程修改很少。這時(shí)候數(shù)據(jù)集規(guī)模的提升就顯得很有益,因?yàn)樵跀?shù)十億的圖像上訓(xùn)練的模型顯示出對(duì)標(biāo)簽噪聲的顯著恢復(fù)能力。

在不遠(yuǎn)的將來,我們還設(shè)想了其他將主題標(biāo)簽用作計(jì)算機(jī)視覺標(biāo)簽的方式。這些方式可能包括使用 AI 來更好地理解視頻片段或改變圖片在 Facebook 推薦中的排名方式。主題標(biāo)簽不僅可以幫助系統(tǒng)識(shí)別一般類別的圖片還可以識(shí)別特定子類別的圖片。例如,「樹上有個(gè)鳥」這種語音提示是有用的,但一個(gè)可以指明確切物種的語音提示可以為視障用戶提供更好的場景描述,比如「一個(gè)北美紅雀棲息在北美楓樹上」。

發(fā)美照時(shí)打上“#”,還能幫Facebook提升圖片識(shí)別率喲

發(fā)美照時(shí)打上“#”,還能幫Facebook提升圖片識(shí)別率喲

拋開主題標(biāo)簽的使用不談,這項(xiàng)研究依舊取得了廣泛的圖片識(shí)別相關(guān)的進(jìn)展,這些改進(jìn)足以影響現(xiàn)有產(chǎn)品和新產(chǎn)品。例如,更加精確的模型可能會(huì)改善我們在 Facebook 上呈現(xiàn)歷史記錄的方式。這項(xiàng)研究還指出長期影響與弱監(jiān)督數(shù)據(jù)有關(guān)。隨著訓(xùn)練數(shù)據(jù)集越來越大,弱監(jiān)督(長期來說,無監(jiān)督)學(xué)習(xí)變得越來越重要。知道如何彌補(bǔ)噪音大。標(biāo)簽少的缺點(diǎn)對(duì)建立和使用的大規(guī)模訓(xùn)練數(shù)據(jù)集至關(guān)重要。

Dhruv Mahajan, Ross Girshick, Vignesh Ramanathan 等人的論文—「Exploring the Limits of Weakly Supervised Pretraining」對(duì)研究進(jìn)行了詳細(xì)描述。因?yàn)楸緦?shí)驗(yàn)使用了超大規(guī)模級(jí)別的數(shù)據(jù)集,最后的觀測結(jié)果為一系列新研究方向鋪平了道路,包括開發(fā)新一代的足夠復(fù)雜的深度學(xué)習(xí)模型用來從數(shù)十億的圖像中有效地學(xué)習(xí)。

這項(xiàng)工作還表明,我們需要開發(fā)像 ImageNet 一樣可以廣泛使用的新基準(zhǔn)數(shù)據(jù)庫,一是可以讓我們更好地衡量當(dāng)今圖像識(shí)別系統(tǒng)的質(zhì)量和局限性。二是為以后更大,監(jiān)督更弱的系統(tǒng)做準(zhǔn)備。

雷鋒網(wǎng)認(rèn)為Facebook團(tuán)隊(duì)這項(xiàng)工作對(duì)于現(xiàn)如今圖像識(shí)別領(lǐng)域會(huì)有很大影響。一是訓(xùn)練數(shù)據(jù)集的提升導(dǎo)致訓(xùn)練模型的提升,二是他們還引導(dǎo)學(xué)習(xí)方式從監(jiān)督到弱監(jiān)督的轉(zhuǎn)變。閱讀原文戳:Facebook F8。

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

發(fā)美照時(shí)打上“#”,還能幫Facebook提升圖片識(shí)別率喲

分享:
相關(guān)文章
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡介
為了您的賬戶安全,請驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說