《Keras高級(jí)深度學(xué)習(xí)》是高級(jí)深度學(xué)習(xí)技術(shù)的綜合指南,內(nèi)容包括自編碼器、生成對抗網(wǎng)絡(luò)(GAN)、變分自編碼器(VAE)和深度強(qiáng)化學(xué)習(xí)(DRL),在這些技術(shù)的推動(dòng)下,AI于近期取得了令人矚目的成就。
《Keras高級(jí)深度學(xué)習(xí)》首先對多層感知器(MLP)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)進(jìn)行了概述,這些是本書中介紹的更高級(jí)技術(shù)的構(gòu)建模塊。之后探索了包括ResNet和DenseNet在內(nèi)的深度神經(jīng)網(wǎng)絡(luò)架構(gòu)以及如何創(chuàng)建自編碼器。讀者將學(xué)習(xí)如何使用Keras和TensorFlow實(shí)現(xiàn)深度學(xué)習(xí)模型,并進(jìn)一步實(shí)現(xiàn)其高級(jí)應(yīng)用。隨后,讀者將會(huì)了解到有關(guān)GAN的所有知識(shí),以及認(rèn)識(shí)到其如何將AI性能提升到新的水平。在此之后,讀者可快速了解VAE的實(shí)現(xiàn)方式,并將認(rèn)識(shí)到GAN和VAE是如何具備生成數(shù)據(jù)的能力的,并且使所生成的數(shù)據(jù)對人類來說極具說服力。因此,該類方法已成為現(xiàn)代AI的一個(gè)巨大進(jìn)步。為充分了解該系列相關(guān)先進(jìn)技術(shù),讀者將會(huì)學(xué)習(xí)如何實(shí)現(xiàn)DRL,例如深度Q-Learning和策略梯度方法,這些方法對于AI在現(xiàn)代取得很多成就至關(guān)重要。
《Keras高級(jí)深度學(xué)習(xí)》適合想要深入了解深度學(xué)習(xí)高級(jí)主題的機(jī)器學(xué)習(xí)工程師,以及高等院校人工智能、數(shù)據(jù)科學(xué)、計(jì)算機(jī)科學(xué)等相關(guān)專業(yè)學(xué)生閱讀。
目 錄
譯者序
原書前言
第 1章 Keras高級(jí)深度學(xué)習(xí)入門
1.1 為什么 Keras是完美的深度學(xué)習(xí)庫
1.1.1 安裝 Keras和 TensorFlow
1.2 實(shí)現(xiàn)核心深度學(xué)習(xí)模型——MLP、CNN和 RNN
1.2.1 MLP、CNN和 RNN之間的差異
1.3 多層感知器(MLP)
1.3.1 MNIST數(shù)據(jù)集
1.3.2 MNIST數(shù)字分類模型
1.3.3 正則化
1.3.4 輸出激活與損失函數(shù)
1.3.5 優(yōu)化
1.3.6 性能評(píng)價(jià)
1.3.7 模型概述
1.4 卷積神經(jīng)網(wǎng)絡(luò)( CNN)
1.4.1 卷積
1.4.2 池化操作
1.4.3 性能評(píng)價(jià)與模型概要
1.5 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)
1.6 小結(jié)
參考文獻(xiàn)
第 2章 深度神經(jīng)網(wǎng)絡(luò)
2.1 函數(shù)式 API
2.1.1 創(chuàng)建一個(gè)兩輸入單輸出模型
2.2 深度殘差網(wǎng)絡(luò)(ResNet)
2.3 ResNet v2
2.4 密集連接卷積網(wǎng)絡(luò)(DenseNet))
2.4.1 為 CIFAR10數(shù)據(jù)集構(gòu)建一個(gè) 100層的 DenseNet-BC網(wǎng)絡(luò)
2.5 小結(jié)
參考文獻(xiàn)
第 3章 自編碼器
3.1 自編碼器原理
3.2 使用 Keras構(gòu)建自編碼器
3.3 去噪自編碼器(DAE)
3.4 自動(dòng)色彩遷移自編碼器
3.5 小結(jié)
參考文獻(xiàn)
第 4章 生成對抗網(wǎng)絡(luò)
4.1 GAN概要
4.2 GAN原理
4.3 Keras中的 GAN實(shí)現(xiàn)
4.4 條件 GAN
4.5 小結(jié)
參考文獻(xiàn)
第 5章 改進(jìn)的 GAN方法
5.1 Wasserstein GAN
5.1.1 距離函數(shù)
5.1.2 GAN中的距離函數(shù)
5.1.3 Wasserstein損失函數(shù)的使用
5.1.4 使用 Keras實(shí)現(xiàn) WGAN
5.2 最小二乘 GAN(LSGAN)
5.3 輔助分類器 GAN(ACGAN)
5.4 小結(jié)
參考文獻(xiàn)
第 6章 分離表示 GAN
6.1 分離表示
6.2 InfoGAN
6.3 在 Keras中實(shí)現(xiàn) InfoGAN
6.4 InfoGAN生成器的輸出
6.5 StackedGAN
6.6 在 Keras中實(shí)現(xiàn) StackedGAN
6.7 StackedGAN的生成器輸出
6.8 小結(jié)
參考文獻(xiàn)
第 7章 跨域 GAN
7.1 CycleGAN原理
7.1.1 CycleGAN模型
7.1.2 使用 Keras實(shí)現(xiàn) CycleGAN
7.1.3 CycleGAN生成器的輸出?
7.1.4 CycleGAN用于 MNIST和 SVHN數(shù)據(jù)集
7.2 小結(jié)
參考文獻(xiàn)
第 8章 變分自編碼器
8.1 VAE原理
8.1.1 變分推斷
8.1.2 核心公式
8.1.3 優(yōu)化
8.1.4 再參數(shù)化的技巧
8.1.5 解碼測試
8.1.6 VAE的 Keras實(shí)現(xiàn)
8.1.7 將 CNN應(yīng)用于 VAE
8.2 條件 VAE (CVAE)
8.3 β-VAE:可分離的隱式表示VAE
8.4 小結(jié)
參考文獻(xiàn)
第 9章 深度強(qiáng)化學(xué)習(xí)
9.1 強(qiáng)化學(xué)習(xí)原理
9.2 Q值
9.3 Q-Learning例子
9.3.1 用 Python實(shí)現(xiàn)Q-Learning
9.4 非確定性環(huán)境
9.5 時(shí)序差分學(xué)習(xí)
9.5.1 OpenAI Gym中應(yīng)用 Q-Learning
9.6 深度Q網(wǎng)絡(luò)(DQN)
9.6.1 用 Keras實(shí)現(xiàn) DQN
9.6.2 雙 Q-Learning(DDQN)
9.7 小結(jié)
參考文獻(xiàn)
第 10章 策略梯度方法
10.1 策略梯度定理
10.2 蒙特卡羅策略梯度(REINFORCE)方法
10.3 基線 REINFORCE方法
10.4 Actor-Critic方法
10.5 優(yōu)勢 Actor-Critic方法
10.6 Keras中的策略梯度方法
10.7 策略梯度方法的性能評(píng)估
10.8 小結(jié)
參考文獻(xiàn)