最新人工智慧應用:用強化學習快速上手AI
內容描述
本書特色:
風格偏向口語化,透過此種交流方式,實現一對一的訓練效果。讀者可將本書想像成自己的私人家教!
不將數學基礎單獨列出,而是在章節內容中,對應地介紹演算法設計和分析的數學基礎。即使沒有高深數學功力的讀者也可學習。而針對有基礎者,透過將兩者加以結合,更可提升數學的應用能力!
每部分都包含「理論說明」、「程式說明」與「直觀解釋」三項內容。強化學習演算法之應用性相當強大,大多讀者的學習目的是用來解決實際問題。一邊學理論、一邊寫程式,過程中同步提升理論研究與解決問題的能力!
涵蓋內容相當豐富,從最基礎到目前最先進的強化學習演算法都有所涉獵!
適用:本書既適合零基礎之強化學習初學者,亦適合相關領域之從業人員與大學、研究所師生。
目錄大綱
Chapter 01 緒論
1.1 這是一本什麼書
1.2 強化學習可以解決什麼問題
1.3 強化學習如何解決問題
1.4 強化學習演算法分類及發展趨勢
1.5 強化學習模擬環境建置
1.6 本書主要內容及安排
Chapter 02 馬可夫決策過程
2.1 馬可夫決策過程理論說明
2.2 MDP中的機率學基礎說明
2.3 以gym為基礎的MDP實例說明
2.4 習題
Chapter 03 以模型為基礎的動態規劃方法
3.1 以模型為基礎的動態規劃方法理論
3.2 動態規劃中的數學基礎說明
3.3 以gym為基礎的程式設計實例
3.4 最佳控制與強化學習比較
3.5 習題
Chapter 04 以蒙地卡羅為基礎的強化學習方法
4.1 以蒙地卡羅方法為基礎的理論
4.2 統計學基礎知識
4.3 以Python為基礎的程式設計實例
4.4 習題
Chapter 05 以時間差分為基礎的強化學習方法
5.1 基於時間差分強化學習演算法理論說明
5.2 以Python和gym為基礎的程式設計實例
5.3 習題
Chapter 06 以值函數逼近為基礎的強化學習方法
6.1 以值函數逼近為基礎的理論說明
6.2 DQN及其變種
6.3 函數逼近方法
6.4 習題
Chapter 07 以策略梯度為基礎的強化學習方法
7.1 以策略梯度為基礎的強化學習方法理論說明
7.2 以gym和TensorFlow為基礎的策略梯度演算法實現
7.3 習題
Chapter 08 以置信域策略最佳化為基礎的強化學習方法
8.1 理論基礎
8.2 TRPO中的數學知識
8.3 習題
Chapter 09 以確定性策略搜索為基礎的強化學習方法
9.1 理論基礎
9.2 習題
Chapter 10 以啟動策略搜索為基礎的強化學習方法
10.1 理論基礎
10.2 GPS中有關的數學基礎
10.3 習題
Chapter 11 逆向強化學習
11.1 概述
11.2 以最大邊際為基礎的逆向強化學習
11.3 以最大熵為基礎的逆向強化學習
11.4 習題
Chapter 12 組合策略梯度和值函數方法
Chapter 13 值反覆運算網路
13.1 為什麼要提出值反覆運算網路
13.2 值反覆運算網路
Chapter 14 以模型為基礎的強化學習方法:PILCO及其擴充
14.1 概述
14.2 PILCO
14.3 濾波PILCO和探索PILCO
14.4 深度PILCO
A 後記
B 參考文獻
作者介紹
郭 憲
南開大學電腦與控制工程學院博士後。2009年畢業於華中科大,同年保送到中國科學院進行碩博連讀,主攻機器人動力學建模與控制,並於2016年獲得工學博士學位。其主攻方向為機器人智慧感知與決策,目前主持兩項國家級專案,內容涉及在機器人領域中,深度學習、深度強化學習等智慧演算法的應用。
方勇純
南開大學電腦與控制工程學院副院長、第七屆吳文俊人工智慧科學技術自然科學一等獎得獎者。其亦分別獲得浙江大學學士與碩士學位、美國克萊門森大學博士學位、並曾在美國康乃爾大學進行博士後研究、2003年至今任教於南開大學。並於2013年獲得國家自然科學基金傑出青年基金的資助。