丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能 正文
發(fā)私信給AI研習(xí)社-譯站
發(fā)送

0

盤點(diǎn)圖像分類的竅門

本文作者: AI研習(xí)社-譯站 2019-02-13 11:09
導(dǎo)語(yǔ):你最近一次了解到深度學(xué)習(xí)理論百分百與實(shí)際驗(yàn)證相匹配是什么時(shí)候?

盤點(diǎn)圖像分類的竅門

本文為 AI 研習(xí)社編譯的技術(shù)博客,原標(biāo)題 :

A Bag of Tricks for Image Classification

作者 | George Seif

翻譯 | dongburen、老趙

校對(duì) | 鄧普斯?杰弗       審核| 醬番梨      整理 | 菠蘿妹

原文鏈接:

https://towardsdatascience.com/a-big-of-tricks-for-image-classification-fec41eb28e01


盤點(diǎn)圖像分類的竅門

你最近一次了解到深度學(xué)習(xí)理論百分百與實(shí)際驗(yàn)證相匹配是什么時(shí)候?這種情況很少發(fā)生。研究論文闡明的是一種情況,但實(shí)際生活中的結(jié)果卻與之有所不同。

這不完全是研究論文的問(wèn)題。實(shí)驗(yàn)是科學(xué)研究的重點(diǎn),基于特定的環(huán)境,特定數(shù)據(jù)集,我們得到相應(yīng)結(jié)果。一旦你在實(shí)際中應(yīng)用這些模型,處理噪聲和野生數(shù)據(jù)的挑戰(zhàn)就必須考慮。理論并不是經(jīng)常和現(xiàn)實(shí)世界中所發(fā)生的完全契合,但理論確實(shí)提供了一個(gè)基準(zhǔn)。

那么造成理論和實(shí)際之間差距的原因是什么——現(xiàn)實(shí)生活中沒(méi)有足夠多的新數(shù)據(jù)。主要的區(qū)別來(lái)自于深度學(xué)習(xí)專家為了提供額外性能提升處理模型所使用的''技巧''。你可以通過(guò)對(duì)模型進(jìn)行大量實(shí)驗(yàn),或者只是從已擁有模型的人那里學(xué)習(xí)得到這些均衡模型性能的隱藏技巧。來(lái)自亞馬遜研究團(tuán)隊(duì)的最新研究定量指出對(duì)同一模型使用這些處理技巧最大可得到4%的準(zhǔn)確度性能提升。

在本文中,你會(huì)了解到專家對(duì)其深度學(xué)習(xí)模型提升額外性能的處理技巧。我將為你提供在實(shí)際應(yīng)用設(shè)置中使用這些技巧的觀察點(diǎn)。


  大批量尺寸

在理論中,一個(gè)較大的mini-batch尺寸有助于網(wǎng)絡(luò)收斂到較好的最小值,最終得到較好的準(zhǔn)確性。由于GPU內(nèi)存的原因,人們經(jīng)常會(huì)在這里受阻,因?yàn)橄M(fèi)者最大能買到的GPU高達(dá)12GB(對(duì)于Titan X)和16GB云端(對(duì)于V100)。 我們有兩種方法可以應(yīng)對(duì)這一挑戰(zhàn):

(1).分布訓(xùn)練:將訓(xùn)練數(shù)據(jù)劃分到多塊GPU上。在每個(gè)訓(xùn)練階段,會(huì)將批拆分到空閑的GPU。舉例來(lái)說(shuō),假設(shè)你有批尺寸為8的圖像和8個(gè)GPU,然后每個(gè)GPU處理一副圖像。你可以將各自最終的梯度和輸出分別結(jié)合起來(lái)。你確實(shí)從GPU之間的數(shù)據(jù)傳輸中花費(fèi)了輕微的代價(jià),但仍然可以通過(guò)并行處理獲得大幅速度提升。許多開(kāi)源的深度學(xué)習(xí)庫(kù)(包括Keras)都支持這個(gè)函數(shù)。

(2).在訓(xùn)練中改變批和圖像尺寸:大量研究論文報(bào)告大批量廣泛使用的部分原因是許多標(biāo)準(zhǔn)研究數(shù)據(jù)集的圖像尺寸都不是很大。 例如,在ImageNet上訓(xùn)練網(wǎng)絡(luò)時(shí),大多數(shù)最先進(jìn)的網(wǎng)絡(luò)都使用了像素在200p到350p之間的圖像; 當(dāng)然如此小圖像尺寸可以使用大批量!實(shí)際上,由于目前的照相技術(shù),我們大多數(shù)都在處理1080p或與1080p相差不大的圖像。     

為了克服這點(diǎn)小困難,你可以小圖像大批量開(kāi)始訓(xùn)練。通過(guò)降采樣訓(xùn)練圖像得到。然后,你可以將更多的它們組合成一個(gè)批次。使用大批量+小圖像,你應(yīng)該能得到一些不錯(cuò)的結(jié)果。為了完成網(wǎng)絡(luò)訓(xùn)練,使用較小的學(xué)習(xí)速率和較小批量的大圖像對(duì)網(wǎng)絡(luò)進(jìn)行微調(diào)。這有助于網(wǎng)絡(luò)重新適應(yīng)高分辨率,并且低學(xué)習(xí)速率使網(wǎng)絡(luò)不會(huì)跳離從大批量發(fā)現(xiàn)的良好最小值。因此,你的網(wǎng)絡(luò)可以從大批量訓(xùn)練中獲得最佳效果,并且可以很好地處理來(lái)自微調(diào)的高分辨率圖像。

盤點(diǎn)圖像分類的竅門

大型小批量訓(xùn)練對(duì)物體探測(cè)器的影響


  模型微調(diào)

研究報(bào)告并不總能告訴你全部情況。作者通常會(huì)在論文中給出他們的官方代碼鏈接,這是一個(gè)學(xué)習(xí)算法比論文本身更好的資源!當(dāng)您閱讀代碼時(shí),您可能會(huì)發(fā)現(xiàn)他們遺漏了一些小的模型細(xì)節(jié),而這些細(xì)節(jié)實(shí)際上造成了很大的準(zhǔn)確性差異。

我鼓勵(lì)大家看一下研究論文的官方代碼,這樣你就可以看到研究人員用來(lái)獲得結(jié)果的確切代碼。這樣做還可以為您提供一個(gè)很好的模板,以便您可以快速地進(jìn)行自己的小調(diào)整和修改,以查看它們是否改進(jìn)了模型。探索一些模型的公開(kāi)的二次實(shí)現(xiàn)也是很有幫助的,因?yàn)檫@些模型可能包含其他人已經(jīng)試驗(yàn)過(guò)的代碼,這些代碼最終在原始模型的基礎(chǔ)上得到了改進(jìn)??纯聪旅娴腞esNet架構(gòu),以及在一些公共代碼中發(fā)現(xiàn)的3處更改。它們看起來(lái)很小,但是每一個(gè)都在運(yùn)行時(shí)幾乎沒(méi)有變化的情況下提高了不可忽略的準(zhǔn)確性;ResNet-D在Top-1準(zhǔn)確率上整整提高了1%。

盤點(diǎn)圖像分類的竅門

ResNet-50的原始結(jié)構(gòu)

盤點(diǎn)圖像分類的竅門

ResNet-50的改進(jìn)和提高版本


  訓(xùn)練方法改進(jìn)

根據(jù)實(shí)際的應(yīng)用和研究團(tuán)隊(duì)設(shè)置訓(xùn)練的不同,深度網(wǎng)絡(luò)的訓(xùn)練方式往往不盡相同。知道如何正確地訓(xùn)練神經(jīng)網(wǎng)絡(luò)可以讓你的準(zhǔn)確率提高3-4%。這種技能,既需要來(lái)自于對(duì)深度網(wǎng)絡(luò)的了解,也來(lái)自于一些簡(jiǎn)單的實(shí)踐。 

 不幸的是,大多數(shù)人不太重視訓(xùn)練,并期望網(wǎng)絡(luò)神奇地給他們帶來(lái)很棒的結(jié)果。

請(qǐng)注意在最新研究中使用的具體訓(xùn)練策略。你會(huì)經(jīng)??吹剿麄冎械拇蠖鄶?shù)不會(huì)僅僅默認(rèn)為一個(gè)單一的學(xué)習(xí)率,而是使用像Adam或RMSProp這樣的自適應(yīng)方法采用動(dòng)態(tài)的學(xué)習(xí)率。他們使用諸如熱身訓(xùn)練、速率衰減和優(yōu)化方法的組合來(lái)獲得他們可能達(dá)到的最高準(zhǔn)確率。 

下面是我個(gè)人最喜歡的方法。

 Adam optimiser非常容易使用,而且它可以自動(dòng)得到適合的學(xué)習(xí)率。另一方面,SGD通常會(huì)比Adam提高1-2%,但是很難調(diào)參。那么,從Adam開(kāi)始:只要設(shè)置一個(gè)學(xué)習(xí)速率,它不是高得離譜的,通常默認(rèn)值是0.0001,你通常會(huì)得到一些非常好的結(jié)果。然后,一旦您的模型使用Adam效果達(dá)到極限,就可以用SGD從較小的學(xué)習(xí)率開(kāi)始進(jìn)行微調(diào),以實(shí)現(xiàn)準(zhǔn)確率最后的提升! 


  遷移學(xué)習(xí)

除非你在做前沿研究,試圖打最先進(jìn)的基礎(chǔ)技術(shù),否則轉(zhuǎn)移學(xué)習(xí)應(yīng)該是默認(rèn)的實(shí)際的方法。從頭開(kāi)始對(duì)新數(shù)據(jù)進(jìn)行網(wǎng)絡(luò)培訓(xùn)是具有挑戰(zhàn)性、耗時(shí),有時(shí)還需要一些額外的領(lǐng)域?qū)<也拍苷嬲龊谩?nbsp; 

遷移學(xué)習(xí)提供了一種既能加速訓(xùn)練又能提高準(zhǔn)確性的簡(jiǎn)單方法。大量的研究和實(shí)踐證據(jù)一致表明,遷移學(xué)習(xí)使模型比從頭開(kāi)始的訓(xùn)練更容易訓(xùn)練,并提高了準(zhǔn)確性。它將完全簡(jiǎn)化事情,使您更容易獲得一些不錯(cuò)的基線結(jié)果。  

一般來(lái)說(shuō),具有更高準(zhǔn)確率的模型(相對(duì)于同一數(shù)據(jù)集上的其他模型)將更有利于轉(zhuǎn)移學(xué)習(xí),并獲得更好的最終結(jié)果。唯一需要注意的事情是,要根據(jù)你的目標(biāo)任務(wù)選擇相關(guān)的網(wǎng)絡(luò)進(jìn)行轉(zhuǎn)移學(xué)習(xí)。例如,在醫(yī)學(xué)成像數(shù)據(jù)集上使用一個(gè)為自動(dòng)駕駛汽車預(yù)先培訓(xùn)的網(wǎng)絡(luò)不是一個(gè)好主意;由于數(shù)據(jù)本身是非常不同的,所以域之間存在巨大的差異。你最好從頭開(kāi)始訓(xùn)練,不要在開(kāi)始的時(shí)候就帶來(lái)數(shù)據(jù)的偏差,因?yàn)閹?lái)偏差的數(shù)據(jù)和醫(yī)療影像完全不同。

盤點(diǎn)圖像分類的竅門

遷移學(xué)習(xí)的主要思想


  精選的數(shù)據(jù)增強(qiáng)

數(shù)據(jù)增強(qiáng)是另外一種大幅提高準(zhǔn)確率的方法。大部分人只關(guān)注經(jīng)典的旋轉(zhuǎn)和裁切,這樣也可以。如果你有時(shí)間去等待在這些額外的圖像訓(xùn)練的時(shí)間,他們可以潛在的給你額外的幾個(gè)百分點(diǎn)的準(zhǔn)確率的提高,而且無(wú)需增加訓(xùn)練時(shí)間。

但是最先進(jìn)的方法不僅如此。

一旦你開(kāi)始開(kāi)始更深入的研究,你會(huì)發(fā)現(xiàn)更多先進(jìn)的數(shù)據(jù)增強(qiáng)方法,這些方法可以給深度神經(jīng)網(wǎng)絡(luò)帶來(lái)最后的提高??s放,比如圖像乘以圖像像素的顏色或者亮度的值,可以使訓(xùn)練圖像比原始圖像更廣泛的暴露在訓(xùn)練網(wǎng)絡(luò)。它有助于解釋這些變化,特別是,根據(jù)房間或天氣的不同光照條件,這些在現(xiàn)實(shí)世界中變化非常頻繁。

 另外一個(gè)技巧,裁剪正則化(Cutout Regularisation),在最新的ImageNet上廣泛應(yīng)用。盡管名為裁剪(cutout),但它實(shí)際上可以看作是采取遮擋的方式進(jìn)行數(shù)據(jù)增強(qiáng)。在現(xiàn)實(shí)世界的應(yīng)用中,遮擋是一個(gè)非常常見(jiàn)的挑戰(zhàn),尤其是在機(jī)器人和自動(dòng)駕駛汽車的熱門計(jì)算機(jī)視覺(jué)領(lǐng)域。通過(guò)對(duì)訓(xùn)練數(shù)據(jù)應(yīng)用某種形式的遮擋,我們可以有效地調(diào)整我們的網(wǎng)絡(luò),使其更加具有魯棒性。 

盤點(diǎn)圖像分類的竅門

裁剪正則化/數(shù)據(jù)增強(qiáng)


想要繼續(xù)查看該篇文章相關(guān)鏈接和參考文獻(xiàn)?

長(zhǎng)按鏈接點(diǎn)擊打開(kāi)或點(diǎn)擊【盤點(diǎn)圖像分類的竅門】:

https://ai.yanxishe.com/page/TextTranslation/1392


AI研習(xí)社每日更新精彩內(nèi)容,觀看更多精彩內(nèi)容:雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

盤點(diǎn)圖像分類的竅門

深度學(xué)習(xí)目標(biāo)檢測(cè)算法綜述

生成模型:基于單張圖片找到物體位置

AutoML :無(wú)人駕駛機(jī)器學(xué)習(xí)模型設(shè)計(jì)自動(dòng)化


等你來(lái)譯:

如何在神經(jīng)NLP處理中引用語(yǔ)義結(jié)構(gòu) 

你睡著了嗎?不如起來(lái)給你的睡眠分個(gè)類吧! 

高級(jí)DQNs:利用深度強(qiáng)化學(xué)習(xí)玩吃豆人游戲

深度強(qiáng)化學(xué)習(xí)新趨勢(shì):谷歌如何把好奇心引入強(qiáng)化學(xué)習(xí)智能體 


雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。

盤點(diǎn)圖像分類的竅門

分享:
相關(guān)文章

知情人士

AI研習(xí)社(yanxishe.com)譯站頻道,傳播前沿人工智能知識(shí),讓語(yǔ)言不再成為學(xué)習(xí)知識(shí)的門檻。(原雷鋒字幕組)
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚?xiě)申請(qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)