深入理解機器學習:從原理到算法 (Understanding Machine Learning : From Theory to Algorithms)
內容描述
<內容簡介>
沙伊·沙萊夫-施瓦茨、沙伊·本-戴維著的《深入理解機器學習(從原理到演算法)》涵蓋了機器學習領域中的嚴謹理論和實用方法,討論了學習的計算複雜度、凸性和穩定性、PAC-貝葉斯方法、壓縮界等概念,並介紹了一些重要的演算法範式,包括隨機梯度下降、神經元網絡以及結構化輸出。
全書講解全面透徹,適合有一定基礎的高年級本科生和研究生學習,也適合作為IT行業從事數據分析和挖掘的專業人員以及研究人員參考閱讀。
<章節目錄>
出版者的話
譯者序
前言
致謝
第1章 引論
1.1 什麼是學習
1.2 什麼時候需要機器學習
1.3 學習的種類
1.4 與其他領域的關係
1.5 如何閱讀本書
1.6 符號
第一部分 理論基礎
第2章 簡易入門
2.1 一般模型——統計學習理論框架
2.2 經驗風險最小化
2.3 考慮歸納偏置的經驗風險最小化
2.4 練習
第3章 一般學習模型
3.1 PAC學習理論
3.2 更常見的學習模型
3.2.1 放寬可實現假設——不可知PAC學習
3.2.2 學習問題建模
3.3 小結
3.4 文獻評註
3.5 練習
第4章 學習過程的一致收斂性
4.1 一致收斂是可學習的充分條件
4.2 有限類是不可知PAC可學習的
4.3 小結
4.4 文獻評註
4.5 練習
第5章 偏差與複雜性權衡
5.1 「沒有免費的午餐」定理
5.2 誤差分解
5.3 小結
5.4 文獻評註
5.5 練習
第6章 VC維
6.1 無限的類也可學習
6.2 VC維概述
6.3 實例
6.3.1 閾值函數
6.3.2 區間
6.3.3 平行於軸的矩形
6.3.4 有限類
6.3.5 VC維與參數個數
6.4 PAC學習的基本定理
6.5 定理6.7的證明
6.5.1 Sauer引理及生長函數
6.5.2 有小的有效規模的類的一致收斂性
6.6 小結
6.7 文獻評註
6.8 練習
第7章 不一致可學習
7.1 不一致可學習概述
7.2 結構風險最小化
7.3 最小描述長度和奧卡姆剃刀
7.4 可學習的其他概念——一致收斂性
7.5 探討不同的可學習概念
……
第8章 學習的運行時間
第二部分 從理論到演算法
第9章 線性預測
第10章 boosting
第11章 模型選擇與驗證
第12章 凸學習問題
第13章 正則化和穩定性
第14章 隨機梯度下降
第15章 支持向量機
第16章 核方法
第17章 多分類、排序與複雜預測問題
第18章 決策樹
第19章 最近鄰
第20章 神經元網絡
第三部分 其他學習模型
第21章 在線學習
第22章 聚類
第23章 維度約簡
第24章 生成模型
第25章 特徵選擇與特徵生成
第四部分 高級理論
第26章 拉德馬赫複雜度
第27章 覆蓋數
第28章 學習理論基本定理的證明
第29章 多分類可學習性
第30章 壓縮界
第31章 PAC-貝葉斯
附錄A 技術性引理
附錄B 測度集中度
附錄C 線性代數
參考文獻
索引