丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給叢末
發(fā)送

0

Facebook 發(fā)布無梯度優(yōu)化開源工具 Nevergrad,可應(yīng)用于各類機器學(xué)習(xí)問題

本文作者: 叢末 編輯:楊曉凡 2018-12-22 15:30
導(dǎo)語:Nevergrad 提供了許多不依賴梯度計算的優(yōu)化算法。

雷鋒網(wǎng) AI 科技評論按:大多數(shù)機器學(xué)習(xí)任務(wù)——從自然語言處理、圖像分類到翻譯以及大量其他任務(wù),都依賴于無梯度優(yōu)化來調(diào)整模型中的參數(shù)和/或超參數(shù)。為了使得參數(shù)/超參數(shù)的調(diào)整更快、更簡單,F(xiàn)acebook 創(chuàng)建了一個名叫 Nevergrad(https://github.com/facebookresearch/nevergrad)的 Python 3 庫,并將它開源發(fā)布。Nevergrad 提供了許多不依賴梯度計算的優(yōu)化算法,并將其呈現(xiàn)在標準的問答 Python 框架中。此外,Nevergrad 還包括了測試和評估工具。

Nevergrad 現(xiàn)已對外開放,人工智能研究者和其他無梯度優(yōu)化相關(guān)工作者馬上就可以利用它來協(xié)助自己的工作。這一平臺不僅能夠讓他們實現(xiàn)最先進的算法和方法,能夠比較它們在不同設(shè)置中的表現(xiàn),還將幫助機器學(xué)習(xí)科學(xué)家為特定的使用實例找到最佳優(yōu)化器。在 Facebook 人工智能研究院(FAIR),研究者正將 Nevergrad 應(yīng)用于強化學(xué)習(xí)、圖像生成以及其他領(lǐng)域的各類項目中,例如,它可以代替參數(shù)掃描來幫助更好地調(diào)優(yōu)機器學(xué)習(xí)模型。

這個庫包含了各種不同的優(yōu)化器,例如:

  • 差分進化算法(Differential evolution)

  • 序列二次規(guī)劃(Sequential quadratic programming)

  • FastGA

  • 協(xié)方差矩陣自適應(yīng)(Covariance matrix adaptation)

  • 噪聲管理的總體控制方法(Population control methods for noise management)

  • 粒子群優(yōu)化算法(Particle swarm optimization)

在此之前,使用這些算法往往需要研究者自己編寫算法的實現(xiàn),這就讓他們很難在各種不同的最新方法之間進行比較,有時候甚至完全無法比較?,F(xiàn)在,AI 開發(fā)者通過使用 Nevergrad,可以輕易地在特定的機器學(xué)習(xí)問題上對不同方法進行測試,然后對結(jié)果進行比較?;蛘?,他們也可以使用眾所周知的基準來評估——與當前最先進的方法相比,新的無梯度優(yōu)化方法怎么樣。

Nevergrad 中所包含的無梯度優(yōu)化方法可用于各類機器學(xué)習(xí)問題,例如:

  • 多模態(tài)問題,比如說擁有多個局部極小值的問題。(如用于語言建模的深度學(xué)習(xí)超參數(shù)化。)

  • 病態(tài)問題,通常在優(yōu)化多個具有完全不同的動態(tài)特性的變量的時候,該問題就會出現(xiàn)(如,未對特定問題進行調(diào)整的丟棄和學(xué)習(xí)率)。

  • 可分離或旋轉(zhuǎn)問題,其中包括部分旋轉(zhuǎn)問題。

  • 部分可分離問題,可以考慮通過幾個變量塊來解決這類問題。示例包括深度學(xué)習(xí)或其他設(shè)計形式的架構(gòu)搜索,以及多任務(wù)網(wǎng)絡(luò)的參數(shù)化。

  • 離散的、連續(xù)的或混合的問題。這些問題可以包括電力系統(tǒng)(因為有些發(fā)電站具有可調(diào)連續(xù)輸出,而其他發(fā)電站則具有連續(xù)或半連續(xù)輸出)或者要求同時選擇每層的學(xué)習(xí)速率、權(quán)值衰減以及非線性類型的神經(jīng)網(wǎng)絡(luò)任務(wù)。

  • 有噪聲的問題,即針對這一問題,函數(shù)被完全相同的參數(shù)調(diào)用時可以返回不同結(jié)果,例如強化學(xué)習(xí)中的不同關(guān)卡。

在機器學(xué)習(xí)中,Nevergrad 可用于調(diào)整參數(shù),例如學(xué)習(xí)率、動量、權(quán)值衰減(或許每一層)、dropout(丟棄)算法、深度網(wǎng)絡(luò)每個部分的層參數(shù)及其他等。更為普遍地,非梯度方法同樣被用于電網(wǎng)管理(https://www.sciencedirect.com/science/article/pii/S0142061597000409)、航空(https://www.sciencedirect.com/science/article/pii/S0142061597000409)、鏡頭設(shè)計(https://www.researchgate.net/publication/222434804_Human-competitive_lens_system_design_with_evolution_strategies)以及許多其他的科學(xué)和工程應(yīng)用中。

為什么有無梯度優(yōu)化的需求

在某些場景中,例如在神經(jīng)網(wǎng)絡(luò)權(quán)重優(yōu)化中,以分析法去計算函數(shù)的梯度是簡單的。然而,在其他場景中,例如當計算函數(shù) f 的速度慢,或者域不連續(xù)的時候,函數(shù)的梯度就無法預(yù)估出來。在這些應(yīng)用實例中,無梯度方法提供了解決方案。

一個簡單的無梯度解決方案是隨機搜索,它由隨機采樣大量的搜索點、對每個搜索點進行評估、選擇最佳搜索點三個步驟組成。隨機搜索在許多簡單場景中表現(xiàn)很好,但在高維場景中卻表現(xiàn)不佳。通常被用于機器學(xué)習(xí)參數(shù)調(diào)整的網(wǎng)格搜索,也面臨類似的限制。不過,也還有許多替代方法:其中一些來自應(yīng)用數(shù)學(xué),如序列二次規(guī)劃,它對模擬器的二次近似進行更新;貝葉斯優(yōu)化也建立目標函數(shù)模型,其中包括不確定性模型;進化計算包含大量關(guān)于選擇、變異以及混合有前景的變體的工作。

Facebook 發(fā)布無梯度優(yōu)化開源工具 Nevergrad,可應(yīng)用于各類機器學(xué)習(xí)問題

這個示例展示了進化算法如何運行。在函數(shù)空間中采樣搜索點,并選擇最佳點的群落,然后在已有點的周圍推薦出新的點來嘗試優(yōu)化當前的點群落。

使用 Nevergrad 生成算法基準

Facebook 研究團隊使用了 Nevergrad 實現(xiàn)幾個基準測試,來展示特定算法在特定情況下的表現(xiàn)最佳。這些眾所周知的示例對應(yīng)著各種不同設(shè)置(多峰或非多峰,噪聲或非噪聲,離散或非離散,病態(tài)或非病態(tài)),并展示了如何使用 Nevergrad 來確定最佳優(yōu)化算法。

在每個基準測試中,F(xiàn)acebook 研究團隊對不同的 X 值進行了獨立實驗。這確保了在幾個 X 值上的各個方法之間的一致排序在統(tǒng)計上是顯著的。除了下面的兩個基準示例,這里(https://github.com/facebookresearch/nevergrad/blob/master/docs/benchmarks.md)還有一份更全面的清單,并附上了如何使用簡單的命令行重新運行這些基準的指南。

Facebook 發(fā)布無梯度優(yōu)化開源工具 Nevergrad,可應(yīng)用于各類機器學(xué)習(xí)問題

這個圖展示了一個噪聲優(yōu)化示例

這個示例展示了使用 pcCMSA-ES 噪聲管理原理(https://homepages.fhv.at/hgb/New-Papers/PPSN16_HB16.pdf)的 TBPSA 如何在表現(xiàn)上勝過幾種替代方案。Facebook 研究團隊在這里只將 TBPSA 與算法的一個有限示例進行了對比,不過,比起其他的方法,它的表現(xiàn)同樣更好。

Nevergrad 平臺還可以執(zhí)行在很多機器學(xué)習(xí)場景中都會出現(xiàn)的離散目標函數(shù)。這些場景包括,舉例來說,在一組有限的選項中進行選擇(例如神經(jīng)網(wǎng)絡(luò)中的激活函數(shù))和在層的各個類型中進行選擇(例如,決定在網(wǎng)絡(luò)中的某些位置是否需要跳過連接)。

現(xiàn)有的替代平臺(Bbob 和 Cutest)并不包含任何離散的基準。Nevergrad 可以執(zhí)行經(jīng)過 softmax 函數(shù)(將離散問題轉(zhuǎn)換成有噪聲的連續(xù)問題)或連續(xù)變量離散化進行處理了的離散域。

Facebook 研究團隊注意到在這個場景中,F(xiàn)astGA(https://arxiv.org/abs/1703.03334)的表現(xiàn)最好。DoubleFastGA 對應(yīng)的是 1/dim 和 (dim-1)/dim 之間的突變率,而不對應(yīng) 1/dim 和 1/2。這是因為原始范圍對應(yīng)于二進制域,而在這里,他們考慮的是任意域。在幾種場景中,簡單一致的突變率混合(https://arxiv.org/abs/1606.05551)表現(xiàn)良好。

Facebook 發(fā)布無梯度優(yōu)化開源工具 Nevergrad,可應(yīng)用于各類機器學(xué)習(xí)問題

為研究者和機器學(xué)習(xí)科學(xué)家擴展工具箱

Faacebook 將會持續(xù)為 Nevergrad 增加功能,從而幫助研究者創(chuàng)建和評估新算法。最初的版本擁有基本的人工測試功能,不過 Facebook 計劃為其增加更多功能,其中包括表示物理模型的功能。在應(yīng)用方面,他們將繼續(xù)讓 Nevergrad 變得更易用,并嘗試用它來對無法很好地確定梯度的 PyTorch 增強學(xué)習(xí)模型中的參數(shù)進行優(yōu)化。Nevergrad 還可以幫助 A/B 測試以及作業(yè)調(diào)度等其他任務(wù)進行參數(shù)掃描。

via:https://code.fb.com/ai-research/nevergrad/ ,雷鋒網(wǎng) AI 科技評論編譯。雷鋒網(wǎng)

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

Facebook 發(fā)布無梯度優(yōu)化開源工具 Nevergrad,可應(yīng)用于各類機器學(xué)習(xí)問題

分享:
相關(guān)文章
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說