丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給AI研習(xí)社-譯站
發(fā)送

0

一文帶你讀懂 WaveNet:谷歌助手的聲音合成器

本文作者: AI研習(xí)社-譯站 2019-01-18 11:16
導(dǎo)語:有沒有想過有可能使機器合成的人類聲音幾乎和人類本身的聲音一樣自然? WaveNet使其成為可能。
一文帶你讀懂 WaveNet:谷歌助手的聲音合成器

本文為 AI 研習(xí)社編譯的技術(shù)博客,原標(biāo)題 :

WaveNet: Google Assistant’s Voice Synthesizer

作者 | Janvijay Singh

翻譯 | 醬番梨、王立魚、莫青悠、Disillusion

校對、整理 | 菠蘿妹

原文鏈接:

https://towardsdatascience.com/wavenet-google-assistants-voice-synthesizer-a168e9af13b1


一文帶你讀懂 WaveNet:谷歌助手的聲音合成器

有沒有想過有可能使機器合成的人類聲音幾乎和人類本身的聲音一樣自然? WaveNet使其成為可能。


  語音合成. 波音拼接合成. 參數(shù)合成. 深度學(xué)習(xí).

機器合成擬人化語音(文語轉(zhuǎn)換)的想法已經(jīng)存在很長時間了。在深度學(xué)習(xí)出現(xiàn)之前,存在兩種主流的建立語音合成系統(tǒng)的方式,即波音拼接合成和參數(shù)合成。

在波音拼接合成的文語轉(zhuǎn)換中,它的思路就是通過收集一個人的一長列句子的發(fā)聲錄音,將這些錄音切割成語音單元,嘗試著將那些和最近提供的文本相匹配的語音單元進行拼接縫合,從而生成這文本對應(yīng)的發(fā)聲語音。通過波音拼接合成產(chǎn)生的語音,對于那些文本已經(jīng)存在于用于初始收集的錄音之中的部分,文語轉(zhuǎn)換后的語音聽上去比較自然,但是那些初次遇見的文本,就會聽上去有些異樣。除此之外,修飾聲音要求我們對整個新錄音集進行操作。反之在參數(shù)合成的文語轉(zhuǎn)換中,它的思路是通過參數(shù)物理模型(本質(zhì)上來說就是一個函數(shù))來模擬人類的聲道并使用記錄的聲音來調(diào)整參數(shù)。通過參數(shù)合成文語轉(zhuǎn)換生成的聲音聽上去沒有通過音波結(jié)合文語轉(zhuǎn)換生成的聲音那么自然,但是這種方式更容易通過調(diào)整某些模型中的參數(shù)來修飾聲音。

近日來,隨著WavNet的面世,對我們來說以端對端(來自聲音記錄本身)的方式來生成未處理的聲音樣本成為可能,可以簡單的修飾聲音,更重要的是和現(xiàn)存的語音處理方式相比,得到的聲音明顯的更加自然。所有的一切都要感謝深度學(xué)習(xí)的出現(xiàn)。


  為什么WaveNet會讓人如此的激動?

為了能夠描繪出WaveNet和現(xiàn)存的語音合成方法的區(qū)別,采用了主觀5分平均意見分法(MOS)測試進行統(tǒng)計。在平均意見分測試中,提供給對象(人)從各個聲音合成系統(tǒng)中合成的聲音樣本,并被要求以5分制來評估樣本的自然度(1:很差 2:較差 3:一般 4:好 5:優(yōu)秀)。

一文帶你讀懂 WaveNet:谷歌助手的聲音合成器

用于主觀5分平均意見分法的聲音樣本分別從基于長短期記憶-循環(huán)神經(jīng)網(wǎng)絡(luò)(LSTM-RNN)的參數(shù)合成,基于隱馬爾可夫模型(HMM)的語音單元集的波音拼接合成,和基于WaveNet的語音合成得到的。

從柱狀圖中可以清晰看到,WaveNet在5分制中得到了大概4.0分左右,很明顯是優(yōu)于其他的系統(tǒng)基線的,并且非常接近真實的人類聲音。查閱了DeepMind’s blog 可以認(rèn)識到在合成的語音的自然度方面這些方法的區(qū)別所在。除了能夠輸出合成的語音樣本,WaveNet能夠輕松的適應(yīng)各種各樣的語音特性,如:文本,發(fā)言者特性等,來生成滿足我們需求的聲音。這使它更加的令人感到激動。


  WaveNet. 生成式模型.

生成式模型。這是指什么呢?給出的一般的未標(biāo)記的數(shù)據(jù)點,一個生成式模型會嘗試去學(xué)習(xí)什么樣的概率分布可以生成這些數(shù)據(jù)點,目的是為了通過利用學(xué)習(xí)分布來產(chǎn)生新的數(shù)據(jù)點(與輸入數(shù)據(jù)點相似)。生成式模型可以通過不同的方式對概率分布建模,隱式(具有可處理或近似密度)或者顯式。當(dāng)我們說一個生成式模型是顯式建模模型的話,意味著我們明確的定義概率分布并嘗試去適配每一個輸入的未標(biāo)記數(shù)據(jù)點。與它形成對比,一個隱式生成式模型學(xué)習(xí)一個概率分布,可以直接取樣新數(shù)據(jù)點而不需要明確的定義。GANs(生成對抗網(wǎng)絡(luò)),目前深度學(xué)習(xí)領(lǐng)域的圣杯,就屬于隱式生成式模型。然而,WaveNet和它的表親Pixel CNNs/RNNs(像素卷積神經(jīng)網(wǎng)絡(luò)模型/遞歸神經(jīng)網(wǎng)絡(luò)模型) 都屬于顯示生成式模型。

WaveNet如何明確的建立概率分布模型?WaveNet試圖對一個數(shù)據(jù)流X的聯(lián)合概率分布建立模型,對數(shù)據(jù)流X中的每一個元素Xt的條件概率求乘積。因此對于一段未處理音波X = {X1, X2, X3 … XT},構(gòu)建的聯(lián)合概率函數(shù)如下:

一文帶你讀懂 WaveNet:谷歌助手的聲音合成器

每一個樣本Xt 因此而受限于所有的先前時間步長的樣品。在一個時間步長上的觀察結(jié)果取決于先前時間步長的觀察結(jié)果(這就是我們試圖使用每一個條件分布項去構(gòu)建的模型),這看上去難道不像是一個時間序列預(yù)測模型嗎?事實上,WaveNet是一個自動回歸模型。 

我們要如何去對這些條件分布項進行建模呢?RNs(遞歸神經(jīng)網(wǎng)絡(luò)模型)或者LSTMs(長短記憶網(wǎng)絡(luò)模型)作為強有力的非線性時序模型是最顯而易見的選擇。事實上,像素遞歸神經(jīng)網(wǎng)絡(luò)使用同樣的思路來生成與輸入的圖像相似的合成圖像。我們可以使用這種思路來生成合成語音嗎?語音是從至少16KHZ的頻率取樣,這意味著,每秒的音頻至少有16000個樣本。RNNs(遞歸神經(jīng)網(wǎng)絡(luò))或者LSTMs(長短記憶網(wǎng)絡(luò))還未曾對如此長(大約10000時間步長序列)的時間依賴性進行建模,他們目前能建模的最長時間依賴性是100時間步長序列,因此這兩種模型并不能很好的適用于語音合成。我們能否適用CNN(卷積神經(jīng)網(wǎng)絡(luò))來處理呢?等一下,CNNs(卷積神經(jīng)網(wǎng)絡(luò)模型)?如何做到呢?相似的思路已經(jīng)被使用于像素卷積神經(jīng)網(wǎng)絡(luò)模型中了。


  卷積神經(jīng)網(wǎng)絡(luò)模型. 因果卷積. 膨脹卷積.

為什么我們要嘗試使用CNNs(卷積神經(jīng)網(wǎng)絡(luò)模型)?CNNs(卷積神經(jīng)網(wǎng)絡(luò)模型)訓(xùn)練速度與RNNs(遞歸神經(jīng)網(wǎng)絡(luò)模型)或者LSTMs(長短記憶網(wǎng)絡(luò)模型)相比是典型地更快速,尤其是應(yīng)用于長的一維序列,因為與每一個掩模或過濾器的卷積位置相關(guān)的操作可以以一個并行,獨立的方式進行。更快的訓(xùn)練速度。聽上去很棒!自回歸(一個時間步長的輸出是只依賴于先前時間步長的輸出而與未來時間步長的輸出無關(guān))的性能如何呢?因果卷積在此轉(zhuǎn)化成行動。一維因果卷積可以輕易的通過左填充輸入的一維序列來執(zhí)行,在這里通過為卷積補充適量的0來得到一個可用的卷機。與RNNs(遞歸神經(jīng)網(wǎng)絡(luò)模型)和LSTMs(長短記憶網(wǎng)絡(luò)模型)相比,因果卷積可以允許我們?nèi)﹂L的多的時間依賴性(也允許我們指定回看長度)進行建模。

一文帶你讀懂 WaveNet:谷歌助手的聲音合成器

因果卷積確保模型不會違反我們對數(shù)據(jù)構(gòu)建的模型的規(guī)則

很好!我們已經(jīng)可以輕易地處理自回歸違規(guī)的問題。但是關(guān)于管理幾千個樣本序列的回看長度的問題呢(例如我們的模型在當(dāng)前時間步長上畫一個關(guān)于輸出的卷機之前,回看至少一秒的音頻)? 能想到的最簡單實現(xiàn)的方式就是將過濾器的規(guī)格增加到足夠可以回看適當(dāng)長度,但是這種方式真的有效嗎? 我認(rèn)為這種做法會使模型減少非線性,這會導(dǎo)致模型難以學(xué)習(xí)復(fù)雜的暫時依賴性,從而限制了模型的性能。你想到的下一個想法可能是增加神經(jīng)網(wǎng)絡(luò)的層數(shù) 。這種方法可能有效。但是計算上是不可能的,因為對輸出中的一個時間步長內(nèi)的接受域大小或者回看長度,隨模型中的隱藏層數(shù)線性增長,而對于我們計算上來說是不希望有一個有著幾千個隱藏層的模型?,F(xiàn)在我們要考慮的是限制隱藏層的數(shù)量、過濾器的大小和增加回看長度?我們將如何做到呢?膨脹卷積將會幫助我們。

膨脹卷積嘗試通過將過濾器應(yīng)用在超過它本身長度的區(qū)域上和按特定步驟跳過輸入值的方式,來增加回看長度或者接受域大小。 這等同于一個卷積使用通過0來擴充原過濾器得到更大的過濾器但是顯然這種方式更加有效。在WaveNet中,多重膨脹卷積層一個個疊放來通過極少的層來獲得極大的接受域。

一文帶你讀懂 WaveNet:谷歌助手的聲音合成器

膨脹因果卷積層堆:加倍每層的膨脹因子會使接受域以 O(2^n)倍增。


  Softmax(柔性最大傳輸函數(shù))分布. Mu-law 壓縮.

為了對條件概率見面,WaveNet采用softmax分布(分類分布)來替代其他的混合模型,分類分布沒有對它的形狀進行假設(shè),因此而更加靈活,更容易對任意分布建模。 未處理音頻被作為16位整數(shù)值(-32,768...32,767)存儲,使用一個softmax層輸出概率分布需要我們的模型在一個時間步長上輸出65,5535個數(shù)值。這會拉慢模型表現(xiàn)嗎?這確實會。我們可以做什么來改善呢?減少位深度會起到作用。如果我們使用線性位深度減少(除以256)對低振幅樣本的影響會比對高振幅樣本的影響更大。 考慮一個初始值是32767的16位樣本,可取的最大正數(shù)值。轉(zhuǎn)化為8位,樣本值變?yōu)?27(32767/256 = 127余255),舍入誤差是255/32768。 這是一個小于1%的量化誤差。但是將這個誤差與最小量級的16位樣本,那些取值在0與255之間的樣本,獲得的量化誤差相比較。當(dāng)最小量級的16位樣本簡化成8位的時候,轉(zhuǎn)化后的值會接近于0,誤差是100%。所以使用線性位深度縮減方法舍入,對低振幅樣本的影響會比對高振幅樣本的影響更大。 如果我們可以重新分配樣本數(shù)值,更多的量化等級在較低的振幅,少量的量化等級在較高的振幅,就可以減少量化誤差。這就是在WaveNet中使用Mu-law分布(非線性量化)來代替使用簡單的線性量化的原因。

一文帶你讀懂 WaveNet:谷歌助手的聲音合成器

執(zhí)行Mu-law壓縮的表達式比使用線性量化的可以等到更優(yōu)的重構(gòu)輸出(更接近與原音頻) 。

在上面的表達式中,?1 < Xt < 1(音頻的樣本在不同的時間不長重新取樣,從-32,768...32,767轉(zhuǎn)為-1...1), μ = 255。這將使模型在每個時間步長中只輸出256個值而不是 65,535個值,提高了訓(xùn)練和推論的速度。


  選通激活函數(shù). 跳躍連接和殘差連接.

非線性激活函數(shù)對于任何一個學(xué)習(xí)輸出與輸入之間的復(fù)雜關(guān)系的深度學(xué)習(xí)模型來說都是要素之一。RELU(線性單元)最初在WaveNet中被使用,但是在執(zhí)行實驗后發(fā)現(xiàn),對于WaveNet來說,使用一個非線性的tan-hyperbolic(tanh)函數(shù)選通sigmoid (S型)函數(shù)的激活函數(shù)效果更好。

一文帶你讀懂 WaveNet:谷歌助手的聲音合成器

在WaveNet中使用的選通激活函數(shù)表達式

在上面的表達式中,W 表示可許阿西過濾器,* 表示卷積算子,⊙表示同或數(shù)學(xué)運算符。殘差連接,不斷疊加底層和它上層的輸出,跳躍連接,直接將底層輸出疊加到輸出層,這兩者已經(jīng)證實在減少神經(jīng)網(wǎng)絡(luò)與訓(xùn)練深層網(wǎng)絡(luò)的收斂時間方面是有效的。因此,如下圖所示,殘差連接已經(jīng)在WaveNet的架構(gòu)中被使用。

一文帶你讀懂 WaveNet:谷歌助手的聲音合成器

WaveNet架構(gòu):選通激活函數(shù),跳躍連接,殘差連接 


  調(diào)節(jié). 本地. 全局.

現(xiàn)在還沒有講到,我們?nèi)绾胃鶕?jù)演講者身份,相應(yīng)文本等各種功能來調(diào)節(jié)輸出語音。WaveNet的輸出語音可以通過兩種方式進行調(diào)節(jié):(1)全局調(diào)節(jié),(2)單個特征偏置輸出所有時間步驟,如說話者的身份或局部調(diào)節(jié),具有多個特征,實際上是不同的時間序列特征,其在不同時間步驟偏置輸出,如語音的基礎(chǔ)文本。如果我們更正式地表達這一點,那么這將意味著在實際模型中在條件分布術(shù)語(本地條件中的Ht和全局調(diào)節(jié)中的H)中引入新參數(shù)。  

一文帶你讀懂 WaveNet:谷歌助手的聲音合成器

在引入條件輸入之后修改條件分布項

在本地調(diào)節(jié)中,調(diào)節(jié)輸入的時間序列可能具有比音頻更短的長度,并且對于局部調(diào)節(jié),要求兩個時間序列必須具有相同的長度。為了匹配長度,我們可以使用轉(zhuǎn)置的CNN(一種可學(xué)習(xí)的上采樣方案)或其他上采樣方案來增加調(diào)節(jié)輸入的長度

一文帶你讀懂 WaveNet:谷歌助手的聲音合成器

引入偏差項h后的表達式

在上面的表達式中,V是可學(xué)習(xí)的線性投影,其基本上用于兩個目的變換h以校正尺寸并學(xué)習(xí)偏置輸出的正確權(quán)重。


  很棒的模型. 快速的訓(xùn)練. 緩慢的推理?

WaveNet的架構(gòu),無論我們到目前為止討論了什么,都很好地捕獲了復(fù)雜的時間依賴性和條件。除此之外,高度并行化使訓(xùn)練變得非常迅速。但是推理呢?由于時間步長的輸出依賴于前一個時間步長的輸出,所以對新音頻的采樣本質(zhì)上是連續(xù)的。產(chǎn)生1秒的輸出大約需要1分鐘的GPU時間。如果谷歌將這個模型部署到他們的助手上,那么對于像“嘿谷歌!天氣怎么樣?”這樣簡單的問題也得花上幾個小時來思考。那么他們是如何縮短推理時間的呢?IAF就是答案。  


  規(guī)范化流程 IAF

什么是規(guī)范化流程?規(guī)范化流程是一系列轉(zhuǎn)換的過程,可以學(xué)習(xí)從從簡單概率密度(如高斯)到豐富的復(fù)雜分布的映射(雙射)。設(shè)想一下,如果你從概率分布q(z)和概率分布q(x)中采樣中得到足夠多的點,那么這個規(guī)范化流程可以用來學(xué)習(xí)轉(zhuǎn)換過程,也就是從q(x)采樣的點映射到其在分布q中的相應(yīng)映射(Z)的過程。這個過程如何完成的?讓我們先考慮有一個轉(zhuǎn)換f,f是一個一個可逆和平滑的映射。如果我們使用此映射來轉(zhuǎn)換具有分布q(z)的隨機變量z,那么,我們得到的隨機變量z'= f(z)具有分布q(z'):

一文帶你讀懂 WaveNet:谷歌助手的聲音合成器

為了向你更加直觀地介紹,我們是如何為變換后的隨機變量的分布得出這個表達式,請查看Eric Jang的這篇博客文章。一個轉(zhuǎn)換是否足夠?實際上,我們可以通過組合幾個簡單的變換,并連續(xù)應(yīng)用上述表達式來構(gòu)造任意復(fù)雜的密度。通過將分布q0通過K變換鏈fk連續(xù)變換隨機變量z0而獲得的密度qK(z)是:

一文帶你讀懂 WaveNet:谷歌助手的聲音合成器

這些變換中的每一個都可以使用矩陣乘法(具有可學(xué)習(xí)的值)輕松建模,然后是非線性,例如ReLU。然后,通過優(yōu)化在變換的概率分布qK(z)下從q(x)采樣的點的似然性(對數(shù)似然),使用任何您喜歡的優(yōu)化算法來更新變換的可學(xué)習(xí)參數(shù)。這將使分布qK(z)與q(x)非常相似,從而學(xué)習(xí)從q(z)到q(x)的適當(dāng)映射。

一文帶你讀懂 WaveNet:谷歌助手的聲音合成器

經(jīng)過一系列可逆變換的分布流

 規(guī)范化流程的想法如何幫助我們快速推理?請記住,WaveNet是一個生成模型,它除了嘗試學(xué)習(xí)可能產(chǎn)生訓(xùn)練數(shù)據(jù)的概率分布之外,什么都不做。因為它是一個明確定義的生成模型(具有易處理的密度),我們可以很容易地學(xué)習(xí)一個可以映射簡單點的轉(zhuǎn)換,像Gaussian這樣的分布到WaveNet學(xué)習(xí)的復(fù)雜分類分布。如果學(xué)習(xí)到的具有快速推理方案的規(guī)范化流程,我們可以輕松地對WaveNet中的慢推理問題進行排序。 IAF(反向自回歸流)可以很好地適應(yīng)這種想法。 在IAF中,我們的想法是首先從z~Logistic(0,I)中抽取隨機樣本,然后將以下變換應(yīng)用于繪制的樣本。

一文帶你讀懂 WaveNet:谷歌助手的聲音合成器

zt上的簡單縮放和移位變換,其中縮放因子(s)和移位因子(μ)通過使用可學(xué)習(xí)參數(shù)(θ)和來自先前時間步長的輸入樣本z中的值來計算

為了輸出時間步長xt的正確分布,逆自回歸流 基于噪聲輸入z1到zt-1的序列,可以隱含地推斷它之前的time-step x1到xt-1的序列。噪聲輸入序列可以在給定zt的情況下并行輸出所有xt。下面的圖片會讓事情變得更加清晰(注意改變記譜法)。

一文帶你讀懂 WaveNet:谷歌助手的聲音合成器

在逆自回歸流中,可以并行計算不同時間步的輸出,因為時間步的輸出不依賴于先前時間步的輸出  

太棒啦! IAF具有快速推理方案(甚至可以并行計算條件概率),但它們訓(xùn)練較慢。為什么比較慢呢?因為如果你給我們一個新的數(shù)據(jù)點并要求評估密度,我們需要恢復(fù)u,這個過程固有的順序很慢。 Parallel WaveNet利用這一事實,提出了使用簡單的WaveNet(教師WaveNet)培訓(xùn)IAF(學(xué)生WaveNet)的概念。  


  并行. 更快. WaveNet.

與WaveNet差不多,我們的想法是利用IAF具有快速推理方案的特性。因此,在第一階段,我們訓(xùn)練出一個簡單的WaveNet模型(我們稱之為教師培訓(xùn))。在第二階段,我們凍結(jié)教師WaveNet的權(quán)重,并利用它來訓(xùn)練IAF(Student Distillation)。我們的想法是先從z~Logistic(0,I)中抽取一個隨機樣本,然后以并行方式傳遞給IAF。這將為我們提供轉(zhuǎn)換分布和相關(guān)條件概率的要點。我們的想法是通過簡單的教師WaveNet將這一點轉(zhuǎn)換為轉(zhuǎn)換后的分布,這將產(chǎn)生關(guān)于已經(jīng)訓(xùn)練過的教師WaveNet的條件概率。然后我們嘗試最小化從任一模型接收的條件概率之間的KL-差異。這將允許IAF(學(xué)生WaveNet)學(xué)習(xí)與其教師幾乎相似的概率分布,并且結(jié)果驗證了這一事實,因為從教師和學(xué)生WaveNet收到的輸出之間的5級MOS分?jǐn)?shù)幾乎可以忽略不計。  

一文帶你讀懂 WaveNet:谷歌助手的聲音合成器

Parallel WaveNet的培訓(xùn)程序

部署的速度是否足夠快?是的。實際上,它能夠以比實時快20倍的速度生成語音樣本。但是仍然存在一個問題,每當(dāng)我們需要重新訓(xùn)練我們的模型時,我們首先會訓(xùn)練WaveNet教師然后訓(xùn)練學(xué)生WaveNet。此外,學(xué)生WaveNet的表現(xiàn)在很大程度上取決于教師WaveNet的培訓(xùn)情況。但總的來說,進行部署是件好事。


“理論是廉價的,請給我代碼。(實踐出真知)”

在網(wǎng)上有許多的關(guān)于簡單的WaveNet的實踐可以使用,但是關(guān)于并行實踐目前還沒有找到。

1.Keras實踐

2.PyTorch實踐

3.TensorFlow實踐(這是目前網(wǎng)上可被使用的實踐中被引用借鑒最多的)


參考文獻:

  1. Audio Companding.

  2. Convolutional Layers in NLP tasks.

  3. Dilated Convolutions.

  4. Normalising Flows: Tutorial by Eric Jang - Part 1, Part 2. Variational Inference with Normalizing Flows (Paper).

  5. Deep Voice: Real-time Neural Text-to-Speech (Paper): Appendix is pretty useful to understand WaveNet.

  6. WaveNet: A generative model for raw audio (Paper).

  7. Parallel WaveNet: Fast High-Fidelity Speech Synthesis (Paper).

  8. PixelCNN, Wavenet & Variational Autoencoders — Santiago Pascual — UPC 2017.


想要繼續(xù)查看該篇文章相關(guān)鏈接和參考文獻?

長按鏈接點擊打開或點擊【一文帶你讀懂WaveNet:谷歌助手的聲音合成器】:

https://ai.yanxishe.com/page/TextTranslation/1228


AI研習(xí)社每日更新精彩內(nèi)容,觀看更多精彩內(nèi)容:雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

使用樹莓派和Python實現(xiàn)目標(biāo)檢測

杰出數(shù)據(jù)科學(xué)家的關(guān)鍵技能是什么?

初學(xué)者怎樣使用Keras進行遷移學(xué)習(xí)

如果你想學(xué)數(shù)據(jù)科學(xué),這 7 類資源千萬不能錯過

等你來譯:

深度學(xué)習(xí)目標(biāo)檢測算法綜述

一文教你如何用PyTorch構(gòu)建 Faster RCNN

高級DQNs:利用深度強化學(xué)習(xí)玩吃豆人游戲

用于深度強化學(xué)習(xí)的結(jié)構(gòu)化控制網(wǎng)絡(luò) (ICML 論文講解)


雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

一文帶你讀懂 WaveNet:谷歌助手的聲音合成器

分享:
相關(guān)文章

知情人士

AI研習(xí)社(yanxishe.com)譯站頻道,傳播前沿人工智能知識,讓語言不再成為學(xué)習(xí)知識的門檻。(原雷鋒字幕組)
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說