0
本文作者: 恒亮 | 2017-02-25 17:23 |
對(duì)于AI開發(fā)者來說,本周可謂喜訊不斷。首先是谷歌發(fā)布了全新的 tf.Transform 組件,大大簡(jiǎn)化了機(jī)器學(xué)習(xí)中的數(shù)據(jù)預(yù)處理問題;同時(shí),從去年秋天開始傳聞的 GPU 云端加速服務(wù)也終于在谷歌云平臺(tái)實(shí)現(xiàn)了;另外,微軟公司聯(lián)合劍橋大學(xué)在最近發(fā)布的一篇論文中闡述了一個(gè)名為 DeepCoder 的機(jī)器學(xué)習(xí)系統(tǒng),據(jù)介紹,該系統(tǒng)擁有基礎(chǔ)編程能力,可以幫助不會(huì)寫代碼的人制作簡(jiǎn)易程序。最后,我們推薦幾個(gè)本周內(nèi)雷鋒網(wǎng)出品的“高能”開發(fā)者資源合集,祝各位周末愉快。
在實(shí)際的機(jī)器學(xué)習(xí)開發(fā)中,開發(fā)者通常需要對(duì)數(shù)據(jù)集進(jìn)行大量的耗時(shí)費(fèi)力的預(yù)處理過程,以適應(yīng)各種不同標(biāo)準(zhǔn)的機(jī)器學(xué)習(xí)模型(例如神經(jīng)網(wǎng)絡(luò))。
針對(duì)這一難題,谷歌于 22 日通過開發(fā)者博客正式發(fā)布了一個(gè)基于 TensorFlow 的全新功能組件 —— tf.Transform。它允許用戶在大規(guī)模數(shù)據(jù)處理框架中定義預(yù)處理流水線(preprocessing pipelines),同時(shí)用戶還可以將這些流水線導(dǎo)出,并將其作為 TensorFlow 計(jì)算圖(TensorFlow graph)的一部分。
除了便于數(shù)據(jù)的預(yù)處理之外,tf.Transform 還允許用戶計(jì)算其數(shù)據(jù)集的統(tǒng)計(jì)概要(summary statistics)。對(duì)于每個(gè)機(jī)器學(xué)習(xí)項(xiàng)目的開發(fā)者而言,深刻理解其數(shù)據(jù)都非常重要,因?yàn)槿魏螌?duì)底層數(shù)據(jù)做出的錯(cuò)誤假設(shè)都可能會(huì)產(chǎn)生一些微妙的錯(cuò)誤。通過更簡(jiǎn)單和高效地計(jì)算數(shù)據(jù)的統(tǒng)計(jì)概要,tf.Transform 可以幫助開發(fā)者更好地檢查他們關(guān)于原始數(shù)據(jù)和預(yù)處理數(shù)據(jù)的假設(shè)。
詳情:http://www.ozgbdpf.cn/news/201702/Yi4oU1mSwKLc8Rad.html
微軟和劍橋大學(xué)的研究員近日發(fā)布了一篇介紹“會(huì)編程的機(jī)器學(xué)習(xí)系統(tǒng)——DeepCoder”的論文。論文中描述的 DeepCoder 系統(tǒng)可以解決編程比賽所涉及到的基礎(chǔ)編程題目,為不會(huì)編程的人提供了制作簡(jiǎn)易程序的可能。
據(jù)介紹, DeepCoder 可以在一秒鐘之內(nèi)寫出能夠跑通的程序,而且隨著該系統(tǒng)引入更多的編程數(shù)據(jù)進(jìn)行學(xué)習(xí)之后,它的編程能速度也會(huì)越來越快。但是,DeepCoder 也存在自身的不足之處,那就是 DeepCoder 只能自動(dòng)生成五行左右代的代碼程序。
詳情:http://geek.csdn.net/news/detail/159111
DeepCoder 論文地址:https://openreview.net/pdf?id=ByldLrqlx
在萬眾期待中,Google云計(jì)算平臺(tái)日前推出了支持云端GPU加速服務(wù)的公開測(cè)試版,第一款支持的GPU型號(hào)是NVIDIA 的Tesla K80,使Google云平臺(tái)的性能獲得了巨大提升?,F(xiàn)在,用戶可以在谷歌云平臺(tái)的三個(gè)地區(qū)玩轉(zhuǎn)基于NVIDIA GPU的虛擬機(jī),包括美東1區(qū)(us-east1),東亞1區(qū)(asia-east1)和西歐1區(qū)(europe-west1)。據(jù)介紹,目前用戶最多可以在自定義的 Google 云計(jì)端虛擬機(jī)上連接將8個(gè)GPU(4塊K80的板子),并且只支持使用gcloud的命令行工具,但從下周起就可以云終端UI界面來創(chuàng)建虛擬機(jī)了。
詳情:http://www.ozgbdpf.cn/news/201702/g1uGf9LG24pYNP8J.html
近日,今日頭條算數(shù)中心執(zhí)行總監(jiān)劉志毅在日前于深圳北京大學(xué)匯豐商學(xué)院舉行的“數(shù)據(jù)之美”論壇上進(jìn)行技術(shù)分享。分享中,劉志毅詳細(xì)介紹了今日頭條是如何做到,向每個(gè)讀者推送不一樣的、據(jù)稱是符合讀者每個(gè)人不同興趣的內(nèi)容的技術(shù)過程。
詳情:http://www.ozgbdpf.cn/news/201702/sWMJ4caPj5dxigGz.html
Ring Allreduce 本是 HPC (高性能計(jì)算)領(lǐng)域的一項(xiàng)技術(shù)。日前,百度硅谷 AI 實(shí)驗(yàn)室已成功將其移植到深度學(xué)習(xí)平臺(tái),借此來加速 GPU 之間的數(shù)據(jù)傳輸速率。目前,在 GPU 并行計(jì)算中,它們之間的通信瓶頸是制約深度學(xué)習(xí)模型訓(xùn)練速度的主要障礙之一。百度宣布,Ring Allreduce 算法的引入將移除該瓶頸,大幅提升多 GPU 和分布式計(jì)算環(huán)境下的深度學(xué)習(xí)模型運(yùn)算效率。雷鋒網(wǎng)獲得消息,該技術(shù)已被百度成功應(yīng)用于語音識(shí)別。
該算法以庫和 Tensorflow 補(bǔ)丁的形式向開發(fā)者開源,分別為 baidu-allreduce 和 tensorflow-allreduce,已在 GitHub 上線。
詳情:http://www.ozgbdpf.cn/news/201702/QaSmvdQNbiY4CxBy.html
開源地址1:https://github.com/baidu-research/baidu-allreduce
開源地址2:https://github.com/baidu-research/tensorflow-allreduce
百度博客(英文):http://research.baidu.com/bringing-hpc-techniques-deep-learning/
下面送上三個(gè)本周內(nèi)AI研習(xí)社發(fā)布的對(duì)開發(fā)者有益的資源合集。
資源1是國外大神總結(jié)的機(jī)器學(xué)習(xí)算法大合集,圖中幾乎包含了機(jī)器學(xué)習(xí)領(lǐng)域所有的常見算法。其中不但簡(jiǎn)單介紹了每一種算法的大概含義,還整理了它們的常見應(yīng)用和優(yōu)缺點(diǎn),各位開發(fā)者絕對(duì)不可錯(cuò)過。
原圖:http://pan.baidu.com/s/1kVFhQqb
詳情:https://static.coggle.it/diagram/WHeBqDIrJRk-kDDY
資源2是2017年內(nèi)與開發(fā)者密切相關(guān)的 17 場(chǎng)重磅的數(shù)據(jù)科學(xué)和AI 相關(guān)的重大學(xué)術(shù)會(huì)議,其中包括 AAAI 2017、DeveloperWeek 和 Domino 數(shù)據(jù)科學(xué)峰會(huì)在內(nèi)的三場(chǎng)大會(huì)已經(jīng)過去了,但還剩下 14 場(chǎng)沒開始的會(huì)議都有哪些呢?各位不妨了解下吧。
詳情:http://www.ozgbdpf.cn/news/201702/BmtqOlEk9kW7X3i8.html
資源3是幾位機(jī)器學(xué)習(xí)專家總結(jié)的 AI 領(lǐng)域含金量最高的開源數(shù)據(jù)庫合集,從計(jì)算機(jī)視覺,自然語言文本和語音,以及網(wǎng)絡(luò)和地理空間數(shù)據(jù)等幾乎無所不有,總有一款適合你,各位開發(fā)者不妨試試吧。
詳情:http://www.ozgbdpf.cn/news/201702/Can849ZwMlp66QBR.html
雷鋒網(wǎng)相關(guān)閱讀:
微軟劍橋聯(lián)合推出 DeepCoder 系統(tǒng);谷歌工程師用“買芒果”理論解釋機(jī)器學(xué)習(xí) |開發(fā)者頭條
百度將 HPC 技術(shù)引入深度學(xué)習(xí);卡巴斯基操作系統(tǒng);AMD Ryzen 預(yù)售等 | AI 開發(fā)者頭條
AI加持,計(jì)算機(jī)要擁有嗅覺了;GPU終于可用于Google Compute Engine | AI開發(fā)者頭條
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。