打好 AI 的基礎:一探機器學習底層數學運作
內容描述
★★★★★【機器學習】、【底層數學】★★★★★
數學是科學之母,想在AI領域發光發熱,先要打下穩固的數學基礎!
本書特色
◎完美圖解,通俗易懂
本書對數學知識採取圖解演示。透過圖解,許多問題都變得簡單,一點就通。
◎生活化的實例,簡單又有趣
例如隨機過程的典型代表,馬可夫過程(Markov Process)的章節中,作者就用了天氣與降雨這種生活化的例子講解,拉近讀者與知識的距離。
◎深入淺出,透析本質
機器學習的數學知識難度不低,許多概念的定義讓讀者難以理解。本書透過點出關鍵的地方,讓讀者一看就豁然開朗,推導再也不是問題。
◎機器學習、數學,相輔相成
本書從機器學習的角度講數學,又從數學的角度講機器學習,言簡意賅、知識滿點、循序漸進,是你學習機器學習的最好夥伴。
本書技術重點
✪一元多元函數微積分
✪線性代數、向量、矩陣分解
✪偏導數、漢森矩陣、雅可比矩陣、無窮級數
✪最佳化方法、泛函數極值與變分法
✪機率統計理論、柴比雪夫不等式
✪資訊理論、交叉熵、條件熵
✪隨機過程、馬可夫過程、高斯過程
✪圖論、拓撲排序演算法、拉普拉斯矩陣
目錄大綱
01 一元函數微積分
1.1 極限與連續
1.2 導數與微分
1.3 微分均值定理
1.4 泰勒公式
1.5 不定積分
1.6 定積分
1.7 常微分方程
02 線性代數與矩陣論
2.1 向量及其運算
2.2 矩陣及其運算
2.3 行列式
2.4 線性方程組
2.5 特徵值與特徵向量
2.6 二次型
2.7 矩陣分解
03 多元函數微積分
3.1 偏導數
3.2 梯度與方向導數
3.3 漢森矩陣
3.4 雅可比矩陣
3.5 向量與矩陣求導
3.6 微分演算法
3.7 泰勒公式
3.8 多重積分
3.9 無窮級數
04 最佳化方法
4.1 基本概念
4.2 一階最佳化演算法
4.3 二階最佳化演算法
4.4 分治法
4.5 凸最佳化問題
4.6 帶約束的最佳化問題
4.7 多目標最佳化問題
4.8 泛函數極值與變分法
4.9 目標函數的建構
05 機率論
5.1 隨機事件與機率
5.2 隨機變數
5.3 常用機率分佈
5.4 分佈轉換
5.5 隨機向量
5.6 極限定理
5.7 參數估計
5.8 隨機演算法
5.9 取樣演算法
06 資訊理論
6.1 熵與聯合熵
6.2 交叉熵
6.3 Kullback-Leibler 散度
6.4 Jensen-Shannon 散度
6.5 相互資訊
6.6 條件熵
6.7 歸納
07 隨機過程
7.1 馬可夫過程
7.2 馬可夫鏈取樣演算法
7.3 高斯過程
08 圖論
8.1 圖的基本概念
8.2 許多特殊的圖
8.3 重要的演算法
8.4 譜圖理論
作者介紹
雷明
資深機器學習、機器視覺專家。
畢業於清華大學計算機系,研究方向為機器視覺、機器學習,曾發表論文數篇。《機器學習-原理、算法與應用》暢銷書作者。曾任百度專案經理;zmodo meShare公司CTO、平臺研發中心負責人、SIGAI創始人。