第1部分基礎(chǔ)篇
第1章深度學(xué)習(xí)簡(jiǎn)介
1.1計(jì)算機(jī)視覺(jué)
1.1.1定義
1.1.2基本任務(wù)
1.1.3傳統(tǒng)方法
1.1.4仿生學(xué)與深度學(xué)習(xí)
1.1.5現(xiàn)代深度學(xué)習(xí)
1.1.6影響卷積神經(jīng)網(wǎng)絡(luò)發(fā)展的因素
1.2自然語(yǔ)言處理
1.2.1自然語(yǔ)言處理的基本問(wèn)題
1.2.2傳統(tǒng)方法與神經(jīng)網(wǎng)絡(luò)方法的比較
1.2.3發(fā)展趨勢(shì)
1.3強(qiáng)化學(xué)習(xí)
1.3.1什么是強(qiáng)化學(xué)習(xí)
1.3.2強(qiáng)化學(xué)習(xí)算法簡(jiǎn)介
1.3.3強(qiáng)化學(xué)習(xí)的應(yīng)用
第2章深度學(xué)習(xí)框架
2.1Caffe
2.1.1Caffe簡(jiǎn)介
2.1.2Caffe的特點(diǎn)
2.1.3Caffe概述
2.2TensorFlow
2.2.1TensorFlow簡(jiǎn)介
2.2.2數(shù)據(jù)流圖
2.2.3TensorFlow的特點(diǎn)
2.2.4TensorFlow概述
2.3PyTorch
2.3.1PyTorch簡(jiǎn)介
2.3.2PyTorch的特點(diǎn)
2.3.3PyTorch概述
2.4三者的比較
2.4.1Caffe
2.4.2TensorFlow
2.4.3PyTorch
第3章機(jī)器學(xué)習(xí)基礎(chǔ)知識(shí)
3.1模型評(píng)估與模型參數(shù)選擇
3.1.1驗(yàn)證
3.1.2正則化
3.2監(jiān)督學(xué)習(xí)與非監(jiān)督學(xué)習(xí)
3.2.1監(jiān)督學(xué)習(xí)
3.2.2非監(jiān)督學(xué)習(xí)
第4章TensorFlow深度學(xué)習(xí)基礎(chǔ)
4.1Tensor對(duì)象及其運(yùn)算
4.2Tensor的索引和切片
4.3Tensor的變換、拼接和拆分
4.4TensorFlow的Reduction操作
4.5三種計(jì)算圖
4.6TensorFlow的自動(dòng)微分
第5章回歸模型
5.1線性回歸
5.2Logistic回歸
5.3用TensorFlow實(shí)現(xiàn)Logistic回歸
5.3.1數(shù)據(jù)準(zhǔn)備
5.3.2模型搭建與訓(xùn)練
第6章神經(jīng)網(wǎng)絡(luò)基礎(chǔ)
6.1基礎(chǔ)概念
6.2感知器
6.2.1單層感知器
6.2.2多層感知器
6.3BP神經(jīng)網(wǎng)絡(luò)
6.3.1梯度下降
6.3.2后向傳播
6.4Dropout正則化
6.5批標(biāo)準(zhǔn)化
6.5.1批標(biāo)準(zhǔn)化的實(shí)現(xiàn)方式
6.5.2批標(biāo)準(zhǔn)化的使用方法
第7章卷積神經(jīng)網(wǎng)絡(luò)與計(jì)算機(jī)視覺(jué)
7.1卷積神經(jīng)網(wǎng)絡(luò)的基本思想
7.2卷積操作
7.3池化層
7.4卷積神經(jīng)網(wǎng)絡(luò)
7.5經(jīng)典網(wǎng)絡(luò)結(jié)構(gòu)
7.5.1VGG網(wǎng)絡(luò)
7.5.2InceptionNet
7.5.3ResNet
7.6用TensorFlow進(jìn)行手寫數(shù)字識(shí)別
第8章神經(jīng)網(wǎng)絡(luò)與自然語(yǔ)言處理
8.1語(yǔ)言建模
8.2基于多層感知器的架構(gòu)
8.3基于循環(huán)神經(jīng)網(wǎng)絡(luò)的架構(gòu)
8.3.1循環(huán)單元
8.3.2通過(guò)時(shí)間后向傳播
8.3.3帶有門限的循環(huán)單元
8.3.4循環(huán)神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型
8.3.5神經(jīng)機(jī)器翻譯
8.4基于卷積神經(jīng)網(wǎng)絡(luò)的架構(gòu)
8.5基于Transformer的架構(gòu)
8.5.1多頭注意力
8.5.2非參位置編碼
8.5.3編碼器單元與解碼器單元
8.6表示學(xué)習(xí)與預(yù)訓(xùn)練技術(shù)
8.6.1詞向量
8.6.2加入上下文信息的特征表示
8.6.3網(wǎng)絡(luò)預(yù)訓(xùn)練
第2部分實(shí)戰(zhàn)篇
第9章基于YOLO V3的安全帽佩戴檢測(cè)
9.1數(shù)據(jù)準(zhǔn)備
9.1.1數(shù)據(jù)采集與標(biāo)注
9.1.2模型選擇
9.1.3數(shù)據(jù)格式轉(zhuǎn)換
9.2模型構(gòu)建、訓(xùn)練和測(cè)試
9.2.1YOLO系列模型
9.2.2模型訓(xùn)練
9.2.3測(cè)試與結(jié)果
第10章基于ResNet的人臉關(guān)鍵點(diǎn)檢測(cè)
10.1數(shù)據(jù)準(zhǔn)備
10.1.1人臉裁剪與縮放
10.1.2數(shù)據(jù)歸一化處理
10.1.3整體代碼
10.2模型搭建與訓(xùn)練
10.2.1特征圖生成
10.2.2模型搭建
10.2.3模型訓(xùn)練
10.3模型評(píng)價(jià)
第11章基于ResNet的花卉圖片分類
11.1環(huán)境與數(shù)據(jù)準(zhǔn)備
11.1.1環(huán)境安裝
11.1.2數(shù)據(jù)集簡(jiǎn)介
11.1.3數(shù)據(jù)集的下載與處理
11.2模型構(gòu)建、訓(xùn)練和測(cè)試
11.2.1模型創(chuàng)建與訓(xùn)練
11.2.2測(cè)試與結(jié)果
第12章基于UNet的細(xì)胞分割
12.1細(xì)胞分割
12.1.1細(xì)胞分割簡(jiǎn)介
12.1.2傳統(tǒng)細(xì)胞分割算法
12.2基于UNet細(xì)胞分割的實(shí)現(xiàn)
12.2.1UNet簡(jiǎn)介
12.2.2ISBI簡(jiǎn)介
12.2.3數(shù)據(jù)加載
12.2.4模型訓(xùn)練
12.2.5訓(xùn)練結(jié)果
第13章基于DCGAN的MNIST數(shù)據(jù)生成
13.1生成對(duì)抗網(wǎng)絡(luò)介紹
13.2準(zhǔn)備工作
13.3創(chuàng)建模型
13.3.1生成器
13.3.2判別器
13.4損失函數(shù)和優(yōu)化器
13.4.1判別器損失
13.4.2生成器損失
13.4.3保存檢查點(diǎn)
13.5定義訓(xùn)練循環(huán)
13.6訓(xùn)練模型和輸出結(jié)果
第14章基于遷移學(xué)習(xí)的電影評(píng)論分類
14.1遷移學(xué)習(xí)概述
14.2IMDB數(shù)據(jù)集
14.3構(gòu)建模型解決IMDB數(shù)據(jù)集分類問(wèn)題
14.4模型訓(xùn)練和結(jié)果展示
第15章基于LSTM的原創(chuàng)音樂(lè)生成
15.1樣例背景介紹
15.1.1循環(huán)神經(jīng)網(wǎng)絡(luò)
15.1.2Music 21
15.1.3TensorFlow
15.2項(xiàng)目結(jié)構(gòu)設(shè)計(jì)
15.3實(shí)驗(yàn)步驟
15.3.1搭建實(shí)驗(yàn)環(huán)境
15.3.2觀察并分析數(shù)據(jù)
15.3.3數(shù)據(jù)預(yù)處理
15.3.4生成音樂(lè)
15.4成果檢驗(yàn)
第16章基于RNN的文本分類
16.1數(shù)據(jù)準(zhǔn)備
16.2創(chuàng)建模型
16.3訓(xùn)練模型
16.4堆疊兩個(gè)或更多 LSTM 層
第17章基于 TensorFlowTTS 的中文語(yǔ)音合成
17.1TTS 簡(jiǎn)介
17.1.1語(yǔ)音合成技術(shù)
17.1.2TTS技術(shù)發(fā)展史和基本原理
17.1.3基于深度學(xué)習(xí)的TTS
17.2基于TensorFlowTTS 的語(yǔ)音合成實(shí)現(xiàn)
17.2.1TensorFlowTTS簡(jiǎn)介與環(huán)境準(zhǔn)備
17.2.2算法簡(jiǎn)介
17.2.3代碼實(shí)現(xiàn)與結(jié)果展示
附錄ATensorFlow環(huán)境搭建
附錄B深度學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)
B.1線性代數(shù)
B.2概率論
參考文獻(xiàn)