丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能 正文
發(fā)私信給黃善清
發(fā)送

0

再無需從頭訓練遷移學習模型!亞馬遜開源遷移學習數(shù)據庫 Xfer

本文作者: 黃善清 2019-02-01 18:11
導語:一旦無需從頭開始訓練模型,我們可以省下大量的計算、數(shù)據以及專業(yè)知識等資源。

雷鋒網 AI 科技評論按:所謂的「遷移學習」,是指重新利用已訓練的機器學習模型來應對新任務的技術。它給深度學習領域帶來了許多好處,最明顯的是,一旦無需從頭開始訓練模型,我們可以省下大量的計算、數(shù)據以及專業(yè)知識等資源。近期由亞馬遜開源的 Xfer 數(shù)據庫,可以讓我們輕松應用及打造遷移學習原型,雷鋒網 AI 科技評論將亞馬遜算法工程師 Andreas Damianou 關于此庫的介紹博文節(jié)譯如下。

再無需從頭訓練遷移學習模型!亞馬遜開源遷移學習數(shù)據庫 Xfer

Xfer 是一款針對 MXNet 的遷移學習,為適那些希望達到以下目的的從業(yè)者與研究人員而設計:

  • 將已訓練的神經網絡在新場景/任務中進行部署 

  • 基于現(xiàn)有網絡架構打造新的神經網絡原型方案。

換句話說,只要給定機器學習任務,Xfer 就能通過神經網絡找到最佳解決方案,而無需你再從頭開始進行訓練。該庫可以應用于任意的數(shù)據與網絡,包括那些最常見的圖像和文本數(shù)據。

使用 Xfer 的好處

  • 節(jié)省資源:無需從頭開始訓練網絡,從而節(jié)省大量的人力與 CPU / GPU 資源)。

  • 提升處理能力:即使標簽很少,我們也能對復雜的數(shù)據進行分類。

  • 降低使用門檻:無需成為機器學習專家,就能輕松利用和修改現(xiàn)有的神經網絡體系結構,創(chuàng)建出自己的解決方案。

  • 便于從神經網絡中提取特征。

  • 提升原型設計速度:Xfer 的 ModelHandler 模塊將能允許我們輕松修改神經網絡的架構。

  • 不確定性建模(Uncertainty modeling):通過貝葉斯神經網絡(BNN)或高斯過程(GP),我們得以把控模型預測的不確定性。

演示 1:基于元模型的遷移學習

只要確定好目標任務的源模型(MXNet)和數(shù)據迭代器,你只需輸入 3 行代碼即可實現(xiàn)遷移學習:

再無需從頭訓練遷移學習模型!亞馬遜開源遷移學習數(shù)據庫 Xfer

下面的動圖直觀演示使用重新調整方法執(zhí)行元模型遷移學習的操作:

再無需從頭訓練遷移學習模型!亞馬遜開源遷移學習數(shù)據庫 Xfer

 基于元模型的轉移學習

在該例子中,ModelHandler 用于獲取已在源任務上預先進行訓練的神經網絡參數(shù) W。在保持 W 原來參數(shù)的基礎上,我們通過源任務中的預訓練神經網絡傳遞目標輸入數(shù)據。過程中我們將獲得描述目標數(shù)據以及源任務信息的表示,因為它們是由從中獲取的參數(shù) W 生成的。最后,我們調用 Repurposer 模塊將上述特征當作元模型分類器的輸入。在給出的代碼中,元模型以「Lr」進行指代,代表的是 Logistic Regression.。

需要注意的是,如果使用的元模型基于高斯過程或貝葉斯神經網絡(兩者均構建在 Xfer 中),則可以在對目標任務的預測中進行不確定性預估。這也意味著,該方法可以「習得過去它們所不懂的東西」。這一點很重要,它可以借此應對標記數(shù)據過少的情況。

演示 2:基于微調的遷移學習

該方法允許用戶事先細化預訓練神經網絡架構,比如通過 ModelHandler 模塊添加或移除層,接著通過基于梯度的優(yōu)化器微調用于目標任務的神經網絡。通過使用 ModelHandler,我們可以嘗試使用自定義的微調再利用方法來進行實驗。例如,從預訓練神經網絡中選擇要傳輸/凍結的圖層。關于 ModelHandler 傳輸功能的代碼展示如下: 

再無需從頭訓練遷移學習模型!亞馬遜開源遷移學習數(shù)據庫 Xfer

上述代碼的動圖演示如下: 

再無需從頭訓練遷移學習模型!亞馬遜開源遷移學習數(shù)據庫 Xfer

基于微調的轉移學習

與上個任務很類似,ModelHandler 用于獲取在源任務上預訓練的神經網絡參數(shù) W,該源模型可以是預先訓練好的 VGGNet。通過 ModelHandler,我們可以對源任務神經網絡的架構進行調整;在這個示例中,我們在架構底部添加了一個新層(帶有新進的初始化參數(shù))。接下來基于微調的再利用方法對新架構進行訓練,以使其適應目標任務的數(shù)據。Xfer 允許我們通過定義原始參數(shù)(上圖中顯示為藍色)以及新參數(shù)(上圖中顯示為橙色)來實現(xiàn)基于微調的再利用方法。由于原始參數(shù)已包含源任務的信息,因此不應和學習值有太大出入,而新參數(shù)已經被隨機初始化,因此應該以更高的學習率進行優(yōu)化。

從今天開始使用 Xfer 吧

Github 開源網址:

https://github.com/amzn/xfer

Xfer 信息文檔:

https://xfer.readthedocs.io/en/master/

圖像數(shù)據的轉移學習教程:

https://xfer.readthedocs.io/en/master/demos/xfer-overview.html

基于自動超參數(shù)調整的遷移學習教程:

https://xfer.readthedocs.io/en/master/demos/xfer-hpo.html

針對文本數(shù)據的遷移學習:

https://xfer.readthedocs.io/en/master/demos/xfer-text-transfer.html

創(chuàng)建自定義 repurposer 教程:

https://xfer.readthedocs.io/en/master/demos/xfer-custom-repurposers.html

用于便捷操作和檢查 MXNet 模型的 xfer.ModelHandler,使用教程:

https://xfer.readthedocs.io/en/master/demos/xfer-modelhandler.html


via https://medium.com/apache-mxnet/xfer-an-open-source-library-for-neural-network-transfer-learning-cd5eac4accf0

雷鋒網 AI 科技評論

雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知。

再無需從頭訓練遷移學習模型!亞馬遜開源遷移學習數(shù)據庫 Xfer

分享:
相關文章
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說