丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給宗仁
發(fā)送

1

Come on ! 手把手教你玩轉(zhuǎn)谷歌TensorFlow | 雷鋒網(wǎng)公開課

本文作者: 宗仁 2016-09-14 14:41 專題:雷峰網(wǎng)公開課
導(dǎo)語:Tensorflow到底適合如何拿來做開發(fā)?能不能為你的研究或者產(chǎn)品帶來更好的機(jī)會?

AI并不是一門簡單的學(xué)科,AI算法的開發(fā)和調(diào)試并沒有一個統(tǒng)一的、集成了大量API方便調(diào)用的平臺和語言,目前的人工智能開發(fā)平臺仍然處于一種半蠻荒的狀態(tài)。許多功能需要自己親自去搭建和實(shí)現(xiàn)。

不過幸運(yùn)的是,這個領(lǐng)域受到了足夠多的重視,因此許多巨頭都針對它開發(fā)了自己的平臺,這其中就包括谷歌的Tensorflow。谷歌DeepMind在AI領(lǐng)域的造詣已經(jīng)人盡皆知,其推出的這款開發(fā)語言平臺也不禁引人遐想,那么,Tensorflow到底適合如何拿來做開發(fā)?能不能為你的研究或者產(chǎn)品帶來更好的機(jī)會?

本期公開課我們邀請到了科技公司Nielsen的機(jī)器學(xué)習(xí)實(shí)驗(yàn)室的負(fù)責(zé)人李加波博士,他帶領(lǐng)的團(tuán)隊(duì)利用基于Tensorflow自己改進(jìn)的算法成功運(yùn)用在了公司的精準(zhǔn)廣告推送業(yè)務(wù)中。在產(chǎn)業(yè)界的十多年中,李博士始終堅(jiān)持學(xué)術(shù)研究與產(chǎn)業(yè)應(yīng)用相結(jié)合,長期保持與學(xué)術(shù)界的緊密合作,并將學(xué)術(shù)成果引入到軟件創(chuàng)新中。

嘉賓介紹,李加波,目前任職于美國科技公司Nielsen的 Machine Learning Lab, 負(fù)責(zé)領(lǐng)導(dǎo)基于深度學(xué)習(xí)智能產(chǎn)品的研發(fā),主要利用Tensorflow框架搭建新型的深度神經(jīng)網(wǎng)絡(luò),利用GPU訓(xùn)練各種用戶分類模型,并將這些模型運(yùn)用于精準(zhǔn)廣告推送中。在去年加入Nielsen之前曾任職于生物,制藥和金融等科技軟件公司,包括Accelrys, 薛定諤(Schr?dinger)及TD Ameritrade。

李博士在工業(yè)界的十多年中始終堅(jiān)持學(xué)術(shù)研究與工業(yè)應(yīng)用相結(jié)合,長期保持與學(xué)術(shù)界的緊密合作,并將學(xué)術(shù)成果引入直接到軟件創(chuàng)新中。目前任中山大學(xué)藥學(xué)院客座教授,指導(dǎo)博士生的研究課題,并開設(shè)了Advanced Lectures on Algorithms and High Performance Computing (算法與高性能計(jì)算編程) 高級研討班。另外在國際期刊發(fā)表科學(xué)論文六十多篇。李博士對各種復(fù)雜科學(xué)計(jì)算算法問題有極致的追求,并發(fā)明了一系列不同學(xué)科的優(yōu)秀算法。

Come on ! 手把手教你玩轉(zhuǎn)谷歌TensorFlow  | 雷鋒網(wǎng)公開課

為什么一開始選擇Tensorflow作為首選平臺?

最開始對于選取何種深度學(xué)習(xí)平臺并不確定,而且那時Tensorflow還尚未問世。當(dāng)時的考慮主要是該平臺的成熟程度,支持的編程語言,GPU的支持和效率,搭建神經(jīng)網(wǎng)絡(luò)的使用的方便程度,上手難易,平臺的后續(xù)發(fā)展,開發(fā)的生態(tài)環(huán)境,平臺的效率等因素。盡管我們收集了一些評比資料,要在諸多因素的權(quán)衡之中做出選擇并非易事,而且逐個去試也不現(xiàn)實(shí)。不久之后,Tensorflow從Google開源,我們毫不猶豫地選定了它。

其一,TF有我們要求的所有功能(C++/Python語言支持,GPU,等)。更重要的是我們相信由Google推出的平臺會很快為大家接受并迅速形成對應(yīng)的開發(fā)生態(tài)圈和活躍的后續(xù)更新發(fā)展。后來的事實(shí)也證實(shí)了我們的料想。下面表格比較了幾種流行的平臺,數(shù)據(jù)來源于今年二月份在arXiv發(fā)布的論文。

Come on ! 手把手教你玩轉(zhuǎn)谷歌TensorFlow  | 雷鋒網(wǎng)公開課

那時候,Caffe和Theano還是最活躍的開源開發(fā)社區(qū),但到目前Tensorflow已有最多的開發(fā)者。見下表:

Come on ! 手把手教你玩轉(zhuǎn)谷歌TensorFlow  | 雷鋒網(wǎng)公開課

總體來講,TF給我的感覺不錯,我相信Google產(chǎn)品的后發(fā)優(yōu)勢。

▎Tensorflow的優(yōu)點(diǎn)和缺點(diǎn)是什么?

總的來說,Tensorflow提供的API對搭建神經(jīng)網(wǎng)絡(luò)有了足夠的自由度。對于損失函數(shù)的構(gòu)造也很直接,TF框架能自動計(jì)算任意構(gòu)建的損失函數(shù)的導(dǎo)數(shù)。對模型參數(shù)的訓(xùn)練也提供了最新的一些算法可供選擇。TF用戶論壇也很活躍,有疑難問題也很快能從中得到幫助。

當(dāng)然也有一些不足之處。例如如果要構(gòu)造任意連接的神經(jīng)網(wǎng)絡(luò),TF沒有提高直接的工具,但有一個通過矢量轉(zhuǎn)置的變通的辦法來實(shí)現(xiàn),但代價是訓(xùn)練和打分都十分的緩慢。

另一個不足之處是,對于實(shí)時的應(yīng)用(需要對單個輸入一個個單獨(dú)計(jì)算打分),效率很低。例如,將一千個輸入記錄作為一個批處理交給TF打分要比分一千次每次計(jì)算一個記錄要快100倍。這意味著后者(實(shí)時應(yīng)用)比其前者的效率低了兩個數(shù)量級。

▎它和ResNet的區(qū)別?兩個版本差別在哪里?

何愷明去年底提出的152層超深度的殘差網(wǎng)絡(luò)贏得了2015年度ImageNet競賽的冠軍,隨后論文發(fā)表在arXiv上("Deep Residual Learning for Image Recognition", by Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. (Dec. 10 2015) http://arxiv.org/abs/1512.03385)。

今年七月同樣在arXiv 上發(fā)表續(xù)集("Identity Mappings in Deep Residual Networks", by Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. (July, 2016) http://arxiv.org/abs/1603.05027v3)。 這里姑且叫前者ResNet I, 后者 ResNet II。殘差網(wǎng)絡(luò)的出發(fā)點(diǎn)很簡單,簡潔性正是大受歡迎的原因。

起核心思想包含三個要素:信息通路捷徑,殘差單元,殘差單元輸出與信息通路的合并。數(shù)學(xué)表達(dá)為:

Come on ! 手把手教你玩轉(zhuǎn)谷歌TensorFlow  | 雷鋒網(wǎng)公開課

其中F為殘差單元的操作,h(x) = x. ResNet I 與 ResNet II的差異在于其中的f 函數(shù)。如f是非線性變換,則為ResNet I, 如果f 為恒等變換則為ResNet II,見下圖:

Come on ! 手把手教你玩轉(zhuǎn)谷歌TensorFlow  | 雷鋒網(wǎng)公開課

Figure 2a. The tensor flow chart of ResNet I.

Come on ! 手把手教你玩轉(zhuǎn)谷歌TensorFlow  | 雷鋒網(wǎng)公開課

Figure 2b. The tensor flow chart of ResNet II. 

總結(jié):ResNet I在信息合并后緊接非線性變換,而ResNet II則數(shù)非線性變換后在合并。

▎為何要在Tensorflow上搭建一個自己的基于 ResNet思想的網(wǎng)絡(luò)?

首先,沒有一個現(xiàn)成的網(wǎng)絡(luò)構(gòu)架能完全合乎我們問題的解決方案,這是實(shí)際需要。同時,要得到最好結(jié)果,必須對最新的研究成果廣泛吸收,加以創(chuàng)新。對于為何在應(yīng)用中要采用ResNet的思想我們得從理解ResNet為何能有效開始。盡管愷明有一點(diǎn)解釋,但這里我給出不同角度的一個理解。一個神經(jīng)網(wǎng)絡(luò)模型的精確度受兩個競爭因素的影響:網(wǎng)絡(luò)復(fù)雜度越高,模型的表達(dá)力越強(qiáng),逼近最佳結(jié)果的潛力也越高。

另一面,復(fù)雜度越高,從高維參數(shù)空間通過SGD方法尋求最佳解的困難也越大??梢詫GD優(yōu)化類比從山上沿著山路下到山底谷的過程, 如圖(圖片來自網(wǎng)上):

Come on ! 手把手教你玩轉(zhuǎn)谷歌TensorFlow  | 雷鋒網(wǎng)公開課

Figure 3. Stochastic Gradient Descendent (SGD)  method 

可以這樣理解:可以將優(yōu)化問題理解為從山上凹凸不平的山路中尋找一條到達(dá)山谷的途徑,山路崎嶇,充滿陷阱。只是相對于神經(jīng)網(wǎng)絡(luò)模型而言是在一個超高維(數(shù)百萬維對于三維)的山上,而山路的崎嶇復(fù)雜和陷阱的數(shù)量遠(yuǎn)超三維空間的情形。要成功下到山谷(或接近山谷),下山途中要盡量避免誤入歧途,掉入陷阱,萬一掉入也有機(jī)會逃去陷阱。ResNet的結(jié)構(gòu)是在原有的網(wǎng)絡(luò)基礎(chǔ)上添加了一個信息通路捷徑,從而可以向前跨越數(shù)層網(wǎng)絡(luò)在一些特定層與原來的輸出匯合,并作為下一個殘差單元的輸入。從數(shù)學(xué)直覺上看,這應(yīng)該是勢能面變得平坦一些,即使下山掉入陷阱,從中逃逸的機(jī)會也大些。

一旦理解了ResNet的思想就可以在其它網(wǎng)絡(luò)構(gòu)架中利用,而這個在Tensorflow上很容易實(shí)現(xiàn)

Tensorflow提供的Python API可直接用于網(wǎng)絡(luò)的搭建。這些API非常直觀,可以將網(wǎng)絡(luò)結(jié)構(gòu)的數(shù)學(xué)表達(dá)直接翻譯成對應(yīng)tf函數(shù)的調(diào)用(例如tf.nn.matmul, tf.nn.relu, tn.nn.l2_loss  for L2 regularization,and  tf.reduce_sum for L1 regularization)。由于TF能對任意損失函數(shù)自動計(jì)算導(dǎo)數(shù),因此可以設(shè)計(jì)任何形式的損失函數(shù)和任意的網(wǎng)絡(luò)結(jié)構(gòu),非常靈活。

ResNet 的引入,讓我們可以建立超深度的神經(jīng)網(wǎng)絡(luò)而不必太擔(dān)心訓(xùn)練模型中的收斂性的問題。即使對于不太深的網(wǎng)絡(luò),ResNet 仍可以改進(jìn)收斂和改善精度。

▎Tensorflow使用中需注意的問題?

在使用Tensorflow上與其它框架沒有特別的地方。不過有些問題對于神經(jīng)網(wǎng)絡(luò)的訓(xùn)練帶有普遍性。

首先,訓(xùn)練神經(jīng)網(wǎng)絡(luò)往往有許多宏觀控制參數(shù),包括網(wǎng)絡(luò)結(jié)構(gòu)的深度,寬度,學(xué)習(xí)速率的選擇及動態(tài)調(diào)節(jié),正則化(Regularization)的類型和強(qiáng)度,迭代次數(shù)等。這些沒有一個簡單的標(biāo)準(zhǔn)怎樣選區(qū),通常只能通過不斷試錯才能找到最佳答案。模型中的參數(shù)初始化也很關(guān)鍵, 如選擇不當(dāng),迭代會停滯不前。例如,如果優(yōu)化陷入停滯不前,簡單的解決辦法就是對全體起始參數(shù)進(jìn)行縮放。

Come on ! 手把手教你玩轉(zhuǎn)谷歌TensorFlow  | 雷鋒網(wǎng)公開課

Figure 4. Convergence is very sensitive to both learning rate and model initialization.

前一個圖開始學(xué)習(xí)速率為0.002,模型訓(xùn)練收斂正常。第二個圖開始學(xué)習(xí)速率為0.02,完全不收斂(欲速則不達(dá))。

▎如何基于Tensorflow搭建新的神經(jīng)網(wǎng)絡(luò)架構(gòu)?

在Tensorflow上搭建神經(jīng)網(wǎng)絡(luò)還是比較直接的,因?yàn)門ensorflow 提供了十分豐富的API (Python和C++),和搭建神經(jīng)網(wǎng)絡(luò)的各個組件,包括卷積網(wǎng)絡(luò)構(gòu)件,各種優(yōu)化方法,各種損失函數(shù)的組合,正則化控制等。因此許多軟件開發(fā)都可以基于Tensorflow提供的Python應(yīng)用接口進(jìn)行,因此在研發(fā)中可以快速實(shí)驗(yàn)不同的構(gòu)架。

然而,也正是因?yàn)槭褂肞ython接口,對于特定應(yīng)用這有可能成為效率的瓶頸。我目前還沒有深入到C++底層修改Tensorflow。但從長遠(yuǎn)看進(jìn)入底層的擴(kuò)展是必要的,特別是對特定應(yīng)用進(jìn)行效率優(yōu)化。 例如,對于一個實(shí)時應(yīng)用來說,要求能夠?qū)τ诿恳粋€單獨(dú)的輸入快速響應(yīng),返回結(jié)果。我們發(fā)現(xiàn),雖然Tensorflow GPU版本能夠高速批處理打分(batch scoring),如果同樣的數(shù)量單獨(dú)一個個處理,效率可能會慢兩個數(shù)量級,這對于實(shí)時應(yīng)用是個問題。解決之道可以單獨(dú)編寫一個高效率的打分函數(shù),而不必依賴Tensorflow。

▎之前你提到你們搭建的網(wǎng)絡(luò)架構(gòu)不同于卷積神經(jīng)網(wǎng)絡(luò),所以采用了ResNet的思想。ReNet思想是指?

這個問題要這樣看:殘差網(wǎng)絡(luò)(ResNet) 和卷積神經(jīng)網(wǎng)絡(luò)( ConvNet) 之間是平行概念,互不排斥。

ResNet的基本思想可以和卷積神經(jīng)網(wǎng)絡(luò)結(jié)合,也可和其它任何類型的神經(jīng)網(wǎng)絡(luò)結(jié)合。ResNet的核心思想是在不改變網(wǎng)絡(luò)表達(dá)力和復(fù)雜度的情形下改變損失函數(shù)勢能面的狀況,從而使優(yōu)化到最佳點(diǎn)的途徑變得順利些。

▎如何根據(jù)自己需求開發(fā)深度學(xué)習(xí)產(chǎn)品?

這個問題很大,有些籠統(tǒng)??偟膩碚f,并非所有應(yīng)用都需要用深度學(xué)習(xí)。能用簡單模型解決的問題絕不用復(fù)雜的深度模型。例如如果問題能用線性模型就能得到很好的結(jié)果,那么用深度神經(jīng)網(wǎng)絡(luò)就沒必要,因?yàn)楹唵文P偷男室吆芏?。但如果問題是高度非線性,而且各個變量之間存在強(qiáng)烈耦合,那么這時用神經(jīng)網(wǎng)絡(luò)可能是一個好的選擇。但即使如此,也要從簡單的網(wǎng)絡(luò)開始入手,例如3-6層網(wǎng)絡(luò),然后逐漸增加層數(shù),仔細(xì)觀察是否有改進(jìn)空間。由于SGD優(yōu)化結(jié)果帶有一定的誤差和不確定性,每次Tensorflow優(yōu)化的結(jié)果會有g(shù)一定的差別,因此觀測增加層數(shù)是否改進(jìn)模型精度時要小心,要重復(fù)多次運(yùn)算,取平均值,然后做比較。這樣做對于樣本數(shù)較少時尤為重要。

▎如何根據(jù)自己需求在深度學(xué)習(xí)中做算法創(chuàng)新?

這個問題很大,應(yīng)該問Jeff Hinton 或Yan LeCun 等大牛。但一些通常的創(chuàng)新思維方式還是值得借鑒的。我認(rèn)為,首先要對問題有透徹的理解。例如我門希望對卷積神經(jīng)網(wǎng)絡(luò)是怎樣工作的,近幾年不斷改進(jìn)的算法是如何提高模型精度的有深入的認(rèn)識,不僅如此,我們還要對反方向的研究結(jié)果有所理解。例如,Szegedy 等人的研究表明,在一個能被DNN模型完全正確識別的圖片(如獅子)加入人眼難以擦覺的噪聲,然后再讓計(jì)算機(jī)識別,會認(rèn)為是一個完全不同的類別。

還有最近Yoshinski 的研究表明利用一訓(xùn)練好的DNN模型可以從完全無規(guī)的電視機(jī)雪花噪聲圖片(完全沒有任何意義),通過對圖象優(yōu)化使得DNN以很高的置信度(99.99%)認(rèn)為是某個特定動物(如熊貓或啄木鳥等)而得到的圖像仍然如同一片噪聲,完全看不出任何有意義的模樣。  

Come on ! 手把手教你玩轉(zhuǎn)谷歌TensorFlow  | 雷鋒網(wǎng)公開課

如果我們能從數(shù)學(xué)上理解這些現(xiàn)象那么我們必將產(chǎn)生更新的思想,引導(dǎo)我們嘗試新的網(wǎng)絡(luò)結(jié)構(gòu),從而發(fā)現(xiàn)更有效,更精確,更魯棒的算法來。但是,對于這些問題我們目前還了解得不透,而恰恰是因?yàn)檫@樣,還有許多創(chuàng)新空間等待我們發(fā)現(xiàn)。另外,目前關(guān)于圖像識別的大多數(shù)算法幾乎都是基于卷積神經(jīng)網(wǎng)絡(luò)。是否有其它途徑,使得我們即使利用較少的樣本也可以訓(xùn)練出很好的模型,如同人類認(rèn)知能力一樣?這值得我們深思!

▎怎么根據(jù)自己的需求改進(jìn)神經(jīng)網(wǎng)絡(luò)?

怎樣跟據(jù)自己需求改進(jìn)網(wǎng)絡(luò)架構(gòu)這個問題比較泛。大致講要根據(jù)自身應(yīng)用問題的特殊性調(diào)整。例如,卷積神經(jīng)網(wǎng)絡(luò)主要用于圖像識別,因?yàn)閳D像中的每個像素都與其鄰近像素關(guān)連,而全部的這種關(guān)聯(lián),空間關(guān)系決定了一個圖像的表征。卷積神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)就是為了提取這些特征,并通過大量例子訓(xùn)練模型。

而有些問題,其變量之間的相互作用關(guān)系不明確,無法套用卷積神經(jīng)網(wǎng)絡(luò)。這時可以采用全連接網(wǎng)絡(luò),或根據(jù)已知或猜測到的相互作用關(guān)系建立網(wǎng)絡(luò)連接(這樣可大大減少參數(shù)量)。實(shí)際應(yīng)用中還涉及模型的效率(速度)問題。 如果一個神經(jīng)網(wǎng)絡(luò)過大,無論是訓(xùn)練還是用于打分都會較慢,如需提速,必須減少模型的大小。

▎如何利用GPU加速?請舉例說明。

對于Tensorflow,其GPU加速已在其核心構(gòu)架的底層已經(jīng)實(shí)現(xiàn)了。對于所有關(guān)神經(jīng)網(wǎng)絡(luò)運(yùn)算都有對應(yīng)的GPU版本,因此從開發(fā)者的角度看,Tensorflow 實(shí)際上已將開發(fā)者從GPU編程的痛苦中解救出來了。因此,利用GPU加速變成了僅僅是一個安裝的問題。

如果你有GPU機(jī)器,裝載支持GPU的Tensorflow版本即可。CPU/GPU版本從API的角度是透明的,同樣的PYTHON代碼可以在CPU/GPU兩個版本上運(yùn)行。

不過安裝GPU版本時有一點(diǎn)要注意:Tensorflow默認(rèn)要求GPU卡的運(yùn)算能力為3.5或以上。如果你的GPU的運(yùn)算能力為3.0(相當(dāng)普遍),那么默認(rèn)安裝會有問題。這時要從源代碼進(jìn)行編譯安裝,并且要在編譯時的計(jì)算能力選項(xiàng)參數(shù)設(shè)為3.0。目前Amazon云計(jì)算提供的GPU還是3.0,所以在Amazon 上安裝Tensorflow 要從源代碼開始編譯安裝。Tensorflow支持多GPU,但相應(yīng)的代碼要修改,因?yàn)橐獙θ蝿?wù)的分配進(jìn)行編程。我們比較了一個32核CPU與一個單片GPU機(jī)上Tensorflow 運(yùn)行的速度做個比較。GPU機(jī)器大約是32核CPU機(jī)器速度的4倍。 

▎你是如何多年堅(jiān)持科研并將成果引入到軟件創(chuàng)新中的?

多年堅(jiān)持將學(xué)術(shù)成果引入到軟件創(chuàng)新中需要有很大的熱情。

我一直保持著學(xué)術(shù)研究的興趣,尤其是與實(shí)際應(yīng)用相關(guān)的問題, 其目的就是要將突破性研究成果融入到新產(chǎn)品的開發(fā)之中。 例如,2006獲得了公司獎勵的學(xué)術(shù)休假,使得我有幾個月自由科研的機(jī)會,也正是在此期間發(fā)明了愷撒(CAESAR)算法,提高了三維分子結(jié)構(gòu)模擬的效率達(dá)十倍以上,并作為藥物分子設(shè)計(jì)的一個核心模塊廣泛應(yīng)用于各大制藥公司的藥物研發(fā)中。從2008年以來開始與中山大學(xué),除了給國內(nèi)的研究生遠(yuǎn)程授課外,每年也回國一兩次講學(xué),并指導(dǎo)研究生的課題。

另一成功案例:WEGA(三維幾何形狀比較的高斯權(quán)重)算法。

工業(yè)應(yīng)用:藥物分子的計(jì)算機(jī)輔助設(shè)計(jì)

問題痛點(diǎn):超大規(guī)模分子庫三維數(shù)十億個分子形狀的比較計(jì)算量巨大而費(fèi)時。

合作研究:與中山大學(xué)藥學(xué)院合作,組建了一個攻關(guān)團(tuán)度,包括博導(dǎo)和其學(xué)生。

解決方案:分三步:1)新算法,2)GPU加速, 3)GPU集群的大規(guī)模并行。

研究成果:

1)算法方面,提出了比較分子三維形狀的WEGA(高斯權(quán)重)算法,大大提高了計(jì)算精度同時保留了計(jì)算的簡潔性和高效率。


2)指導(dǎo)中大博士生開發(fā)了利用GPU加速的GWEGA,使得單片GPU即可提高近100倍的加速。


3 )利用廣州超算中心的GPU集群實(shí)現(xiàn)了大規(guī)模GPU并行,將TB數(shù)量級的超大規(guī)模分子庫的三維結(jié)構(gòu)檢索移植到GPU集群中,實(shí)現(xiàn)了1億次/秒的高通量藥物分子虛擬篩選,比國際競爭對手快了近兩個數(shù)量級。這一成果我們申請了中國和國際專利。

難點(diǎn):這個項(xiàng)目的難點(diǎn)是GPU編程。GPU編程的門檻較高,尤其是要達(dá)到高效率,特別是要達(dá)到近100倍的加速,對編程技巧有苛刻的要求。為此,外特地為中東研究生開設(shè)了GPU編程課,讓學(xué)生很快入門,進(jìn)而對GPU架構(gòu)有深入的理解,關(guān)鍵地方和學(xué)生一同探討,對每行代碼逐條分析優(yōu)化,將效率推行極致。這個過程不僅培養(yǎng)了學(xué)生,同時也使難題得以解決。

▎群友提問:除了圖像之外,對于其它有一定相互關(guān)聯(lián)性的信號,是否都可以借鑒卷積網(wǎng)絡(luò),比如一些時間上有一定關(guān)聯(lián)的信號的機(jī)器學(xué)習(xí)?

可以,但比較麻煩,因?yàn)槟悴恢涝鯓託w類,對于音頻完全可以,時間和頻率構(gòu)成二維圖像。

Come on ! 手把手教你玩轉(zhuǎn)谷歌TensorFlow  | 雷鋒網(wǎng)公開課

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

Come on ! 手把手教你玩轉(zhuǎn)谷歌TensorFlow  | 雷鋒網(wǎng)公開課

分享:
相關(guān)文章

專注AIR(人工智能+機(jī)器人)

專注人工智能+機(jī)器人報(bào)道,經(jīng)驗(yàn)分享請加微信keatslee8(請注明原因)。 科學(xué)的本質(zhì)是:問一個不恰當(dāng)?shù)膯栴},于是走上了通往恰當(dāng)答案的路。
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說