Keras 高級深度學習

Keras 高級深度學習

作者: Rowel Atienza
出版社: 機械工業
出版在: 2020-06-01
ISBN-13: 9787111647966
ISBN-10: 7111647963
裝訂格式: 平裝





內容描述


《Keras高級深度學習》是高級深度學習技術的綜合指南,
內容包括自編碼器、生成對抗網絡(GAN)、變分自編碼器(VAE)和深度強化學習(DRL),
在這些技術的推動下,AI於近期取得了令人矚目的成就。
《Keras高級深度學習》首先對多層感知器(MLP)、卷積神經網絡(CNN)
和循環神經網絡(RNN)進行了概述,這些是本書中介紹的更高級技術的構建模塊。
之後探索了包括ResNet和DenseNet在內的深度神經網絡架構以及如何創建自編碼器。
讀者將學習如何使用Keras和TensorFlow實現深度學習模型,並進一步實現其高級應用。
隨後,讀者將會了解到有關GAN的所有知識,以及認識到其如何將AI性能提升到新的水平。
在此之後,讀者可快速了解VAE的實現方式,並將認識到GAN和VAE是如何具備生成數據的能力的,
並且使所生成的數據對人類來說極具說服力。
因此,該類方法已成為現代AI的一個巨大進步。
為充分了解該系列相關先進技術,讀者將會學習如何實現DRL,
例如深度Q-Learning和策略梯度方法,這些方法對於AI在現代取得很多成就至關重要。
《Keras高級深度學習》適合想要深入了解深度學習高級主題的機器學習工程師,
以及高等院校人工智能、數據科學、計算機科學等相關專業學生閱讀。


目錄大綱


目錄
譯者序
原書前言
第1章Keras高級深度學習入門
1.1 為什麼Keras是完美的深度學習庫
1.1.1 安裝Keras和TensorFlow
1.2 實現核心深度學習模型——MLP、CNN和RNN
1.2.1 MLP、CNN和RNN之間的差異
1.3 多層感知器(MLP)
1.3.1 MNIST數據集
1.3.2 MNIST數字分類模型
1.3.3 正則化
1.3.4 輸出激活與損失函數
1.3.5 優化
1.3.6 性能評價
1.3.7 模型概述
1.4 卷積神經網絡( CNN)
1.4.1 卷積
1.4.2 池化操作
1.4.3 性能評價與模型概要
1.5 循環神經網絡(RNN)
1.6 小結
參考文獻
第2章深度神經網絡
2.1 函數式API
2.1.1 創建一個兩輸入單輸出模型
2.2 深度殘差網絡(ResNet)
2.3 ResNet v2
2.4 密集連接卷積網絡(DenseNet))
2.4.1 為CIFAR10數據集構建一個100層的DenseNet-BC網
2.5 小結
參考文獻
第3章自編碼器
3.1 自編碼器原理
3.2 使用Keras構建自編碼器
3.3 去噪自編碼器(DAE)
3.4 自動色彩遷移自編碼器
3.5 小結
參考文獻
第4章生成對抗網絡
4.1 GAN概要
4.2 GAN原理
4.3 Keras中的GAN實現
4.4 條件GAN
4.5 小結
參考文獻
第5章改進的GAN方法
5.1 Wasserstein GAN
5.1.1 距離函數
5.1.2 GAN中的距離函數
5.1.3 Wasserstein損失函數的使用
5.1.4 使用Keras實現WGAN
5.2 最小二乘GAN(LSGAN)
5.3 輔助分類器GAN(ACGAN)
5.4 小結
參考文獻
第6章分離表示GAN
6.1 分離表示
6.2 InfoGAN
6.3 在Keras中實現InfoGAN
6.4 InfoGAN生成器的輸出
6.5 StackedGAN
6.6 在Keras中實現StackedGAN
6.7 StackedGAN的生成器輸出
6.8 小結
參考文獻
第7章跨域GAN
7.1 CycleGAN原理
7.1.1 CycleGAN模型
7.1.2 使用Keras實現CycleGAN
7.1.3 CycleGAN生成器的輸出•
7.1.4 CycleGAN用於MNIST和SVHN數據集
7.2 小結
參考文獻
第8章變分自編碼器
8.1 VAE原理
8.1.1 變分推斷
8.1.2 核心公式
8.1.3 優化
8.1.4 再參數化的技巧
8.1.5 解碼測試
8.1.6 VAE的Keras實現
8.1.7 將CNN應用於VAE
8.2 條件VAE (CVAE)
8.3 β-VAE:可分離的隱式表示VAE
8.4 小結
參考文獻
第9章深度強化學習
9.1 強化學習原理
9.2 Q值
9.3 Q-Learning例子
9.3.1 用Python實現Q-Learning
9.4 非確定性環境
9.5 時序差分學習
9.5.1 OpenAI Gym中應用Q-Learning
9.6 深度Q網絡(DQN)
9.6.1 用Keras實現DQN
9.6.2 雙Q-Learning(DDQN)
9.7 小結
參考文獻
第10章策略梯度方法
10.1 策略梯度定理
10.2 蒙特卡羅策略梯度(REINFORCE)方法
10.3 基線REINFORCE方法
10.4 Actor-Critic方法
10.5 優勢Actor-Critic方法
10.6 Keras中的策略梯度方法
10.7 策略梯度方法的性能評估
10.8 小結
參考文獻


作者介紹


Rowel Atienza
是菲律賓大學蒂利曼分校電氣與電子工程學院副教授,
並擔任Dado和Maria Banatao研究所人工智能講席教授。
Rowel畢業於菲律賓大學,並一直對智能機器人十分著迷。
他在新加坡國立大學從事AI增強四足機器人方面的工作,並以此獲得工程學碩士學位。
此後,他憑藉其在人機交互主動視線跟踪領域的貢獻,獲得澳大利亞國立大學的博士學位。
Rowel當前的研究重點是AI和計算視覺,他夢想著構建出可以感知、理解並推理的實用機器。
Rowel獲得了來自於菲律賓科學技術部(DOST)、
菲律賓三星研究院和菲律賓高等教育委員會-菲律賓加利福尼亞高級研究所(CHED-PCARI)的多項科研資助。




相關書籍

Dancing with Python: Learn Python software development from scratch and get started with quantum computing

作者 Sutor Robert S.

2020-06-01

Modern Pyqt: Create GUI Applications for Project Management, Computer Vision, and Data Analysis

作者 Willman Joshua

2020-06-01

Artificial Intelligence for Business, 2/e

作者 Rose Doug

2020-06-01