0
本文作者: AI研習(xí)社 | 2020-07-09 10:10 |
本文轉(zhuǎn)載自:https://zhuanlan.zhihu.com/p/154059915
書籍免費(fèi)下載地址:https://www.yanxishe.com/resourceDetail/1919?from=leiphonecolumn_res0709
1 書籍介紹 · · · · · ·
在信息爆炸的當(dāng)今,大到企業(yè)巨頭的經(jīng)營方向, 小到和日常生活相關(guān)的人工駕駛等領(lǐng)域,數(shù)學(xué)建模和人工智能都對信息數(shù)據(jù)的收集、處理、解釋以及做出決策將起到至關(guān)重要的作用。負(fù)責(zé)開發(fā)模型和算法的一線科學(xué)家和工程師, 都需要有堅(jiān)實(shí)的數(shù)學(xué)基礎(chǔ)。相信有許多所有對數(shù)學(xué)建模,機(jī)器學(xué)習(xí)和深度學(xué)習(xí)深感興趣的小伙伴,有一定的基礎(chǔ)卻常常被繁雜的定理和錯(cuò)綜的模型所困 —— 那么這本書就是一部可供隨時(shí)查閱,幫助大家融會貫通的寶典。
本書有以下幾大亮點(diǎn):
理論與實(shí)踐相結(jié)合,學(xué)以致用。內(nèi)容詳盡,涵蓋范圍廣。
a. 全書干貨多覆蓋范圍廣, 包含~100 個(gè)核心算法, 約 300 個(gè)示意圖。例子豐富,且絕大部分定理都有證明。
b. 本書凝聚了作者多年數(shù)學(xué)建模和機(jī)器學(xué)習(xí)研究和實(shí)戰(zhàn)經(jīng)驗(yàn)。根據(jù)應(yīng)用領(lǐng)域, 本書總結(jié)并深入講述傳統(tǒng)方法到前沿的深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)算法,幫助讀者迅速抓住重點(diǎn),減少彎路。
便于學(xué)習(xí)查找,由淺入深,步步為營,多用示意圖以助讀者理解
a. 本書的算法和定理證明中常常引用相關(guān)的其他章節(jié),循序漸進(jìn),有助于讀者建立樹狀知識脈絡(luò),一網(wǎng)打盡相關(guān)知識點(diǎn)。
b. 本書例子詳實(shí)并多伴有示意圖,清晰易懂。作者基于多年實(shí)踐,總結(jié)并對易混淆的概念進(jìn)行比對,幫助讀者更加扎實(shí)掌握相關(guān)內(nèi)容。
全書 GitHub 地址:https://github.com/yangyutu/EssentialMath
全書總共 33 章分成六個(gè)部分:
Mathematical Foundations(數(shù)學(xué)基礎(chǔ))
Mathematical Optimization Methods(數(shù)學(xué)優(yōu)化方法)
Classical Statistical Methods(經(jīng)典統(tǒng)計(jì)方法)
Dynamics Modeling Methods(動(dòng)力系統(tǒng)建模方法)
Statistical Learning Methods(統(tǒng)計(jì)學(xué)習(xí)方法)
Optimal Control and Reinforcement Learning Methods(最優(yōu)控制和強(qiáng)化學(xué)習(xí)方法)
作者對一些熱門章節(jié)進(jìn)行章節(jié)歸類打包下載
Linear Algebra and Matrix Analysis
Mathematical Optimization
Probability and Statistical Estimation
Stochastic Process
Markov Chain and Random Walk
Linear Regression Analysis
Statistical Learning
Neural Network and Deep Learning
(Deep) Reinforcement Learning
整體目錄如下:
I Mathematical Foundations
Sets, Sequences and Series
Metric Space
Advanced Calculus
Linear Algebra and Matrix Analysis
Function Sequences, Series and Approximation
Basic Functional Analysis
II Mathematical Optimization Methods
Unconstrained Nonlinear Optimization
Constrained Nonlinear Optimization
Linear Optimization
Convex Analysis and Convex Optimization
Basic Game Theory
III Classical Statistical Methods
Probability Theory
Statistical Distributions
Statistical Estimation Theory
Multivariate Statistical Methods
Linear Regression Analysis
Monte Carlo Methods
IV Dynamics Modeling Methods
Models and estimation in linear systems
Stochastic Process
Stochastic Calculus
Markov Chain and Random Walk
Time Series Analysis
V Statistical Learning Methods
Supervised Learning Principles and Methods
Linear Models for Regression
Linear Models for Classification
Generative Models
K Nearest Neighbors
Tree Methods
Ensemble and Boosting Methods
Unsupervised Statistical Learning
Neural Network and Deep Learning
VI Optimal Control and Reinforcement Learning Methods
Classical Optimal Control Theory
Reinforcement Learning
Appendix: Supplemental Mathematical Facts
2 內(nèi)容展示 · · · · · ·
2.1 線性代數(shù)篇
SVD (矩陣奇異值分解) 是線性代數(shù)中最重要工具之一, 經(jīng)常在各類統(tǒng)計(jì)以及重要機(jī)器學(xué)習(xí)方法中出現(xiàn)。作者用如下圖示和定理對 SVD 的性質(zhì)進(jìn)行總結(jié)和證明。該證明簡潔扼要,且所用到的其它輔助定理與證明都在本書中 。作者使用一個(gè)圖示來分別指出 complete form SVD 和 compact form SVD 的結(jié)果和原矩陣的關(guān)系。
作者同時(shí)指出新手常混淆的一個(gè)知識點(diǎn):
2.2 統(tǒng)計(jì)篇
多元高斯隨機(jī)變量 (multivariate random variable) 的 affine transformation 經(jīng)常被用于證明高斯隨機(jī)變量的一系列重要性質(zhì)(比如加和, 條件等)。本書首先給出用矩函數(shù)對此定理的證明。
然后本書給出此定理在多元高斯隨機(jī)變量加和中的應(yīng)用。值得一提的是, 作者用腳注強(qiáng)調(diào) jointly normal 這一重要條件。
2.3 機(jī)器學(xué)習(xí)篇
在機(jī)器學(xué)習(xí)的線性分類模型中,三種常見模型 SVM, logistic regression 和 Perceptron learning 可以統(tǒng)一在同一個(gè)數(shù)學(xué)優(yōu)化框架下,每種方法對應(yīng)不同的 loss function。作者對如何把這三種模型轉(zhuǎn)化成同一個(gè)框架進(jìn)行了詳細(xì)的闡述和證明。
2.4 強(qiáng)化學(xué)習(xí)篇
Value iteration 值迭代是強(qiáng)化學(xué)習(xí)的基石型定理之一,然而目前很多教材資料中并沒有給出證明。
本書通過 contraction mapping 和 fixed point theorem 得出簡明的證明。contraction mapping 和 fixed point theorem 的知識點(diǎn)則在在本書 Part I 有詳細(xì)介紹。
之后作者給出基于 value iteration 的算法。
3 作者心得體會 · · · · · ·
這本書來源于我在美國攻讀博士期間上的上課筆記。當(dāng)時(shí)為了解決科研中 一些難題, 上了大量計(jì)算機(jī)和數(shù)學(xué)課。筆記由一開始的零零散散,到后來漸成規(guī)模。我真正開始系統(tǒng)性地整理成書是受到如下一句話的啟發(fā):
If you want to learn something, read about it. If you want to understand something, write about it. If you want to master something, teach it.
我逐漸搭建本書的框架,將學(xué)習(xí)筆記的內(nèi)容在框架下進(jìn)行整合,把最核心的知識點(diǎn)提煉出來。隨著我的科研領(lǐng)域從最初的計(jì)算物理建模到現(xiàn)在的微型機(jī)器人系統(tǒng)的多智體強(qiáng)化學(xué)習(xí),本書的內(nèi)容也從傳統(tǒng)應(yīng)用數(shù)學(xué)和統(tǒng)計(jì)擴(kuò)展到前沿的深度學(xué)習(xí)和人工智能方法 。在寫書的過程中,我能感受到自己的知識體系越發(fā)完備,且系統(tǒng)性的學(xué)習(xí)和研究對于理論難點(diǎn)的掌握,以及跨領(lǐng)域的應(yīng)用都有著至關(guān)重要的作用。
我希望將自己的書和心得體會分享給大家。無論是能夠?yàn)橹就篮系男』锇閭兘獯鹨恍┮苫?,還是幫助希望入門的朋友” 打通任督二脈 “,或者是給同在科研戰(zhàn)線上奮斗的同志一些靈感,我都會非常開心。
開源項(xiàng)目地址:https://github.com/yangyutu/EssentialMath
開源項(xiàng)目作者:Yuguang Yang
補(bǔ)充說明 · · · · · ·
本站所有資源版權(quán)均屬于原作者所有,這里所提供資源均只能用于參考學(xué)習(xí)用,請勿直接商用。如需刪除,請聯(lián)系 kefu@yanxishe.com
AI 研習(xí)社已經(jīng)和阿里大文娛、曠視、搜狗搜索、小米等知名公司達(dá)成聯(lián)系,幫助大家更好地求職找工作,一鍵投遞簡歷至 HR 后臺,準(zhǔn)備了一些內(nèi)推渠道群。
歡迎大家添加研習(xí)社小學(xué)妹微信(aiyanxishe),小學(xué)妹拉你加入(備注求職)。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
資料 | 算法(第4版)【圖靈程序設(shè)計(jì)叢書】算法領(lǐng)域的經(jīng)典參考書
資料 |世界著名計(jì)算機(jī)教材精選:數(shù)據(jù)挖掘十大算法(中文版)
資料 | 樹莓派Python編程入門與實(shí)戰(zhàn)
資料 | 《人工智能編程范式:通用Lisp中的案例研究》1048頁P(yáng)DF免費(fèi)下載
資料 | Yann LeCun「人工智能發(fā)展的挑戰(zhàn)在于無監(jiān)督學(xué)習(xí)」原版演講PPT
資料 | 【復(fù)旦大學(xué)邱錫鵬老師】面向自然語言處理的深度學(xué)習(xí)基礎(chǔ),199頁ppt
資料 | Python語言程序設(shè)計(jì)基礎(chǔ)(第2版)
資料 | Python 神經(jīng)網(wǎng)絡(luò)編程
資料 | 神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)(邱錫鵬)
資料 | 科技之巔:《麻省理工科技評論》50大全球突破性技術(shù)深度剖析
資料 | 解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐
資料 | 深度學(xué)習(xí)之美:AI時(shí)代的數(shù)據(jù)處理與最佳實(shí)踐
資料 | Python數(shù)據(jù)結(jié)構(gòu)與算法分析(第2版)
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。