深度學(xué)習(xí)進(jìn)階:卷積神經(jīng)網(wǎng)絡(luò)和對(duì)象檢測(cè)
定 價(jià):79 元
叢書名:智能系統(tǒng)與技術(shù)叢書
- 作者:[瑞士] 翁貝托·米凱盧奇(Umberto Michelucci)
- 出版時(shí)間:2020/7/1
- ISBN:9787111660927
- 出 版 社:機(jī)械工業(yè)出版社
- 中圖法分類:TP181
- 頁碼:0
- 紙張:
- 版次:
- 開本:16開
本書介紹卷積神經(jīng)網(wǎng)絡(luò)的核心——錯(cuò)綜復(fù)雜的細(xì)節(jié)和算法的微妙之處。主要包括卷積神經(jīng)網(wǎng)絡(luò)的高級(jí)主題和使用Keras和TensorFlow的對(duì)象檢測(cè)。
前言
致謝
第1章 簡(jiǎn)介和設(shè)置開發(fā)環(huán)境 1
1.1 GitHub存儲(chǔ)庫和配套網(wǎng)站 2
1.2 必備的數(shù)學(xué)知識(shí) 3
1.3 Python開發(fā)環(huán)境 3
1.3.1 Google Colab 4
1.3.2 Anaconda 6
1.3.3 Docker映像 14
1.3.4 你選擇哪個(gè)選項(xiàng) 18
第2章 TensorFlow:高級(jí)主題 20
2.1 Eager Execution簡(jiǎn)介 21
2.1.1 啟用Eager Execution 21
2.1.2 Eager Execution多項(xiàng)式擬合 22
2.1.3 應(yīng)用Eager Execution 的MNIST數(shù)據(jù)分類 26
2.2 TensorFlow和Numpy兼容性 30
2.3 硬件加速 30
2.3.1 檢測(cè)GPU的可用性 30
2.3.2 設(shè)備名稱 31
2.3.3 顯式設(shè)備使用 32
2.3.4 GPU加速器演示:矩陣乘法 33
2.3.5 MNIST示例上的GPU加速效果 34
2.4 僅特定層訓(xùn)練 36
2.4.1 僅特定層訓(xùn)練示例 37
2.4.2 層移除 40
2.5 Keras回調(diào)函數(shù) 42
2.5.1 自定義回調(diào)類 42
2.5.2 自定義回調(diào)類示例 44
2.6 模型存儲(chǔ)與加載 47
2.6.1 手動(dòng)保存權(quán)重 52
2.6.2 保存整個(gè)模型 53
2.7 數(shù)據(jù)集抽象類 53
2.7.1 遍歷數(shù)據(jù)集 55
2.7.2 簡(jiǎn)單批處理 56
2.7.3 使用MNIST數(shù)據(jù)集進(jìn)行簡(jiǎn)單批處理 57
2.7.4 在Eager Execution模式下使用tf.data.Dataset 60
2.8 本章小結(jié) 60
第3章 卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ) 61
3.1 核和過濾器 61
3.2 卷積 62
3.3 卷積示例 71
3.4 池化 77
3.5 CNN的構(gòu)建基塊 81
3.5.1 卷積層 82
3.5.2 池化層 83
3.5.3 疊加層 84
3.6 CNN的權(quán)重?cái)?shù)量 84
3.6.1 卷積層 84
3.6.2 池化層 85
3.6.3 稠密層 85
3.7 CNN的示例:MNIST數(shù)據(jù)集 85
3.8 CNN學(xué)習(xí)的可視化 89
3.8.1 keras.backend.function()簡(jiǎn)介 89
3.8.2 核的作用效果 91
3.8.3 最大池化的作用效果 93
第4章 高級(jí)CNN與遷移學(xué)習(xí) 95
4.1 多通道卷積 95
4.2 初始網(wǎng)絡(luò)的歷史和基礎(chǔ) 98
4.2.1 初始模塊:初始版本 99
4.2.2 初始模塊中的參數(shù)數(shù)量 100
4.2.3 具有降維功能的初始模塊 100
4.3 多種成本函數(shù):GoogLeNet 102
4.4 Keras中的初始模塊示例 103
4.5 偏離:Keras中的自定義損失 106
4.6 如何使用預(yù)先訓(xùn)練過的網(wǎng)絡(luò) 108
4.7 遷移學(xué)習(xí)簡(jiǎn)介 111
4.8 貓狗問題 114
4.8.1 遷移學(xué)習(xí)的經(jīng)典方法 114
4.8.2 遷移學(xué)習(xí)實(shí)驗(yàn) 120
第5章 成本函數(shù)與風(fēng)格轉(zhuǎn)換 123
5.1 神經(jīng)網(wǎng)絡(luò)模型的構(gòu)成 123
5.1.1 訓(xùn)練被視為優(yōu)化問題 124
5.1.2 具體示例:線性回歸 125
5.2 成本函數(shù) 126
5.2.1 數(shù)學(xué)符號(hào) 126
5.2.2 典型成本函數(shù) 127
5.3 神經(jīng)風(fēng)格轉(zhuǎn)換 134
5.3.1 神經(jīng)風(fēng)格轉(zhuǎn)換背后的數(shù)學(xué)原理 135
5.3.2 Keras中的圖像風(fēng)格轉(zhuǎn)換示例 139
5.3.3 使用神經(jīng)風(fēng)格轉(zhuǎn)換生成剪影 145
5.3.4 masking 146
第6章 對(duì)象分類簡(jiǎn)介 148
6.1 什么是對(duì)象定位 148
6.1.1 重要的可用數(shù)據(jù)集 150
6.1.2 交并比 152
6.2 一種簡(jiǎn)單的對(duì)象定位方法:滑動(dòng)窗口法 153
6.3 分類和定位 159
6.4 基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò) 161
6.5 快速R-CNN 164
6.6 更快的R-CNN 165
第7章 對(duì)象定位:基于Python的實(shí)現(xiàn) 167
7.1 YOLO方法 167
7.1.1 YOLO工作機(jī)制 168
7.1.2 YOLOv2 170
7.1.3 YOLOv3 171
7.1.4 非極大值抑制 171
7.1.5 損失函數(shù) 172
7.2 YOLO在Python和OpenCV中的實(shí)現(xiàn) 173
7.2.1 YOLO的Darknet實(shí)現(xiàn) 173
7.2.2 應(yīng)用Darknet測(cè)試對(duì)象檢測(cè) 175
7.3 為特定圖像訓(xùn)練YOLO模型 180
7.4 本章小結(jié) 181
第8章 組織學(xué)組織分類 183
8.1 數(shù)據(jù)分析和準(zhǔn)備 184
8.2 建立模型 192
8.3 數(shù)據(jù)增強(qiáng) 201
8.3.1 水平和垂直移動(dòng) 202
8.3.2 垂直翻轉(zhuǎn)圖像 203
8.3.3 隨機(jī)旋轉(zhuǎn)圖像 204
8.3.4 圖像縮放 205
8.3.5 綜合操作 206
8.4 帶有數(shù)據(jù)增強(qiáng)的VGG16 206
8.4.1 fit()函數(shù) 207
8.4.2 fit_generator()函數(shù) 207
8.4.3 train_on_batch()函數(shù) 208
8.4.4 訓(xùn)練網(wǎng)絡(luò) 208
8.5 現(xiàn)在好好享受 209