0
本文作者: 三川 | 2017-02-17 19:01 |
雷鋒網(wǎng)旗下 AI 研習社定期整理國內(nèi)外 AI 開發(fā)相關(guān)的技術(shù)資訊、學習資料以及開發(fā)博客等內(nèi)容。歡迎投稿,投稿郵箱:zhangxian@leiphone.com。
這是澳大利亞機器學習專家 Jason Brownlee 撰寫的教程,提供了一套用 Python 語言處理時間序列預測問題的模板。該教程一步步向讀者展示了應該用什么工具、如何操作,以及為什么這樣操作。它使用了波士頓持械搶劫案數(shù)量作為案例,旨在解決的問題是對波士頓未來每月?lián)尳侔傅臄?shù)量做合理預測。 全文包含代碼長達兩萬字,是迄今為止最權(quán)威、最詳細的時間序列預測入門教程之一。具有相當學習價值。
譯文地址:http://www.ozgbdpf.cn/news/201702/QjrKc9cLWAiqRGhT.html
原文地址:http://machinelearningmastery.com/time-series-forecast-case-study-python-monthly-armed-robberies-boston/
大家一定都知道吳恩達老師在 Coursera 講授的機器學習課程。美國數(shù)據(jù)分析專家 Bilal Mahmood,把吳恩達老師課程中對 K 均值聚類算法的介紹做了整理總結(jié),再加入他自己的經(jīng)驗寫就本文,教大家如何使用聚類分析對數(shù)據(jù)自動分段。文章分為兩部分:一是對 K 均值聚類算法做綜合介紹,二是講述該算法的主要實戰(zhàn)技巧(討論的重點問題是:應該用多少組簇?)。對于研究聚類問題的開發(fā)者具有很高價值。
譯文地址:http://www.ozgbdpf.cn/news/201702/SPMC0IPBy37vJgqU.html
原文地址:http://www.kdnuggets.com/2017/02/automatically-segmenting-data-clustering.html
這是大牛 Ian Goodfellow 等在 OpenAI 博客發(fā)表的文章,專門討論“對抗樣本”這一話題。由于能使大多數(shù)機器學習算法癱瘓,本文討論了對抗樣本帶來的 AI 潛在安全風險,如何解決,并盤點了對付對抗樣本的幾種主要途徑。其中,本文在技術(shù)層面詳細探討了為什么 gradient masking 方法無法解決對抗樣本問題。
原文地址:https://openai.com/blog/adversarial-example-research/
這是 DataScience.com 自然語言處理入門系列文章的第一彈。本系列將介紹自然語言處理的核心概念、核心難題與挑戰(zhàn),以及主流解決方案。作為該系列的第一篇,文章開頭介紹自然語言處理的技術(shù)和應用,隨機進入技術(shù)環(huán)節(jié)討論 Lexical Units;尤其是 tokenization 和 normalization 的實現(xiàn)方法。適合 NLP 領(lǐng)域開發(fā)者。
雷鋒網(wǎng)將為大家奉上后續(xù)教程。
Silicon Valley Database 的研究團隊,歸納總結(jié)了七大主流深度學習平臺框架各自的特性以及優(yōu)缺點。這些框架包括:TensoFlow,Theano,Torch,Caffe,MXNet,Neon 和 CNTK。該文章旨在為新入門的深度學習開發(fā)者提供“應該選擇哪個框架?”的指導。更多關(guān)于開源框架、工具如何選擇的問題,請參考雷鋒網(wǎng)系列文章:Tensorflow 全網(wǎng)最全學習資料匯總之框架平臺的綜合對比【3】,盤點四大民間機器學習開源框架:Theano、Caffe、Torch 和 SciKit-learn,谷歌、微軟、OpenAI 等巨頭的七大機器學習開源項目 看這篇就夠了 。
原文鏈接:http://svds.com/getting-started-deep-learning/
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。