智能通信:基于深度學(xué)習(xí)的物理層設(shè)計(jì)
近年來(lái)人工智能特別是深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理、語(yǔ)音識(shí)別等領(lǐng)域獲得了巨大成功,無(wú)線通信領(lǐng)域的研究者們期望將其應(yīng)用于系統(tǒng)的各個(gè)層面,進(jìn)而發(fā)展出智能通信,大幅度提升無(wú)線通信系統(tǒng)效能。智能通信也因此被認(rèn)為是5G之后無(wú)線通信發(fā)展主流方向之一,其研究尚處于探索階段。本書結(jié)合國(guó)內(nèi)外學(xué)術(shù)界在該領(lǐng)域的**研究進(jìn)展,著眼于智能通信中基于深度學(xué)習(xí)的物理層設(shè)計(jì),對(duì)相關(guān)理論基礎(chǔ)、通信模塊設(shè)計(jì),以及算法實(shí)現(xiàn)等進(jìn)行詳盡的介紹與分析。內(nèi)容主要包括:神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)及進(jìn)階技巧、典型神經(jīng)網(wǎng)絡(luò)、基于深度學(xué)習(xí)的通信物理層基本模塊設(shè)計(jì)等。為方便讀者學(xué)習(xí),相關(guān)章節(jié)均提供了開源代碼(掃描二維碼下載),以幫助讀者快速理解書中涉及的原理與概念。
更多科學(xué)出版社服務(wù),請(qǐng)掃碼獲取。
目錄
前言
章 緒論 1
1.1 智能通信引言 1
1.2 人工智能技術(shù)簡(jiǎn)介 3
1.2.1 人工神經(jīng)網(wǎng)絡(luò) 3
1.2.2 深度神經(jīng)網(wǎng)絡(luò) 4
1.2.3 卷積神經(jīng)網(wǎng)絡(luò) 5
1.2.4 循環(huán)神經(jīng)網(wǎng)絡(luò) 5
1.2.5 生成對(duì)抗神經(jīng)網(wǎng)絡(luò) 6
1.2.6 深度增強(qiáng)學(xué)習(xí)神經(jīng)網(wǎng)絡(luò) 6
1.3 智能通信當(dāng)前研究進(jìn)展 7
1.3.1 信道估計(jì) 7
1.3.2 信號(hào)檢測(cè) 8
1.3.3 CSI 反饋與重建 9
1.3.4 信道譯碼 10
1.3.5 端到端無(wú)線通信系統(tǒng) 11
1.4 總結(jié)與展望 12
1.5 本章小結(jié) 14
參考文獻(xiàn) 14
第2 章 神經(jīng)網(wǎng)絡(luò)的基礎(chǔ) 16
2.1 監(jiān)督學(xué)習(xí) 18
2.2 分類問(wèn)題 19
2.3 線性回歸 22
2.4 邏輯回歸 25
2.5 邏輯回歸的代價(jià)函數(shù) 29
2.6 梯度下降法 30
2.7 模型驗(yàn)證 34
2.8 基于TensorFlow 的二分類范例 35
參考文獻(xiàn) 41
第3 章 神經(jīng)網(wǎng)絡(luò)的進(jìn)階技巧 42
3.1 多分類算法 42
3.2 激活函數(shù) 46
3.2.1 線性激活函數(shù) 47
3.2.2 Sigmoid 函數(shù) 47
3.2.3 tanh 函數(shù) 48
3.2.4 ReLu 函數(shù) 49
3.3 神經(jīng)網(wǎng)絡(luò)的訓(xùn)練準(zhǔn)備 51
3.3.1 輸入歸一化 51
3.3.2 權(quán)重初始化 53
3.4 正則化 55
3.4.1 偏差和方差 55
3.4.2 Dropout 算法 56
3.4.3 補(bǔ)償過(guò)擬合的其他方式 58
3.5 批量歸一化 60
3.5.1 歸一化網(wǎng)絡(luò)的激活函數(shù) 60
3.5.2 BN 與神經(jīng)網(wǎng)絡(luò)的擬合 61
3.6 優(yōu)化算法 62
3.6.1 Mini-Batch 梯度下降法 62
3.6.2 指數(shù)加權(quán)平均 63
3.6.3 動(dòng)量梯度下降法 64
3.6.4 RMS prop 65
3.6.5 Adam 優(yōu)化算法 65
3.6.6 學(xué)習(xí)率衰減 66
3.7 基于TensorFlow 的兩層神經(jīng)網(wǎng)絡(luò)實(shí)例 67
參考文獻(xiàn) 71
第4 章 卷積神經(jīng)網(wǎng)絡(luò) 73
4.1 什么是卷積神經(jīng)網(wǎng)絡(luò) 73
4.1.1 計(jì)算機(jī)視覺(jué) 73
4.1.2 卷積神經(jīng)網(wǎng)絡(luò) 74
4.2 卷積神經(jīng)網(wǎng)絡(luò)基本原理 75
4.2.1 卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu) 75
4.2.2 卷積神經(jīng)網(wǎng)絡(luò)的層級(jí)組成及其原理 75
4.2.3 卷積神經(jīng)網(wǎng)絡(luò)的特點(diǎn) 81
4.3 卷積神經(jīng)網(wǎng)絡(luò)的經(jīng)典網(wǎng)絡(luò) 81
4.3.1 經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò) 81
4.3.2 AlexNet 概述 81
4.3.3 VGGNet 概述 82
4.3.4 ResNet 概述 84
4.4 多層卷積神經(jīng)網(wǎng)絡(luò)實(shí)例 86
4.5 本章小結(jié) 91
參考文獻(xiàn) 91
第5 章 循環(huán)神經(jīng)網(wǎng)絡(luò) 92
5.1 什么是序列模型 92
5.1.1 序列模型簡(jiǎn)介 92
5.1.2 序列模型的符號(hào)定義 93
5.2 循環(huán)神經(jīng)網(wǎng)絡(luò)模型 94
5.2.1 RNN 的前向傳播 94
5.2.2 RNN 的反向傳播 96
5.2.3 不同類型的RNN 98
5.2.4 長(zhǎng)期依賴問(wèn)題 99
5.3 長(zhǎng)短時(shí)記憶 100
5.3.1 長(zhǎng)短時(shí)記憶網(wǎng)絡(luò) 100
5.3.2 LSTM 的變形與演進(jìn) 103
5.3.3 LSTM 實(shí)例應(yīng)用 106
5.4 本章小結(jié) 108
參考文獻(xiàn) 108
第6 章 正交調(diào)制解調(diào)器 109
6.1 基于深度學(xué)習(xí)的QAM 解調(diào)器設(shè)計(jì) 109
6.1.1 基本原理 109
6.1.2 SNR vs BER 仿真結(jié)果 112
6.2 基于深度學(xué)習(xí)的QAM 解調(diào)器設(shè)計(jì) 117
6.2.1 QAM 解調(diào)的評(píng)價(jià)標(biāo)準(zhǔn) 117
6.2.2 基于深度學(xué)習(xí)的QAM 解調(diào) 117
6.3 本章小結(jié) 127
第7 章 人工智能輔助的OFDM 接收機(jī) 128
7.1 FC-DNN OFDM 接收機(jī) 129
7.1.1 系統(tǒng)結(jié)構(gòu) 129
7.1.2 模型訓(xùn)練 130
7.1.3 仿真代碼 131
7.2 ComNet OFDM 接收機(jī) 140
7.2.1 整體架構(gòu) 140
7.2.2 信道估計(jì)子網(wǎng) 142
7.2.3 信號(hào)檢測(cè)子網(wǎng) 143
7.2.4 仿真代碼 145
7.3 仿真性能分析 148
7.3.1 仿真參數(shù) 148
7.3.2 整體ComNet OFDM 接收機(jī)的仿真性能 148
7.4 本章小結(jié) 151
參考文獻(xiàn) 151
第8 章 CSI 反饋及信道重建——CsiNet 152
8.1 CSI 反饋背景知識(shí) 152
8.2 基本原理 153
8.2.1 系統(tǒng)模型 153
8.2.2 壓縮感知 155
8.2.3 自動(dòng)編碼器 155
8.3 基于深度學(xué)習(xí)的CSI 反饋 156
8.3.1 基于深度學(xué)習(xí)的反饋機(jī)制 156
8.3.2 信道狀態(tài)信息反饋網(wǎng)絡(luò)(CsiNet)結(jié)構(gòu) 157
8.4 實(shí)驗(yàn)結(jié)果與分析 159
8.4.1 實(shí)驗(yàn)數(shù)據(jù)生成 159
8.4.2 實(shí)驗(yàn)程序 160
8.4.3 實(shí)驗(yàn)仿真結(jié)果 166
8.5 CsiNet-LSTM 169
8.6 本章小結(jié) 177
參考文獻(xiàn) 177
第9 章 滑動(dòng)窗序列檢測(cè)方法 179
9.1 序列檢測(cè) 179
9.1.1 序列檢測(cè)的基本原理 179
9.1.2 大似然序列檢測(cè)準(zhǔn)則 180
9.1.3 維特比算法 181
9.2 基于深度學(xué)習(xí)的序列檢測(cè)器實(shí)現(xiàn) 185
9.2.1 問(wèn)題描述 186
9.2.2 深度學(xué)習(xí)實(shí)現(xiàn) 187
9.2.3 仿真分析 191
9.2.4 結(jié)果分析 198
9.3 本章小結(jié) 199
參考文獻(xiàn) 199
0 章 基于深度學(xué)習(xí)的Turbo 碼譯碼 200
10.1 Turbo 碼起源 200
10.2 Turbo 碼編碼原理 201
10.2.1 PCCC 型編碼結(jié)構(gòu) 201
10.2.2 SCCC 型編碼結(jié)構(gòu) 202
10.2.3 HCCC 型編碼結(jié)構(gòu) 203
10.3 Turbo 碼傳統(tǒng)譯碼算法 203
10.3.1 Turbo 碼譯碼結(jié)構(gòu) 204
10.3.2 MAP 算法 206
10.3.3 Log-MAP 算法 209
10.3.4 Max-Log-MAP 算法 210
10.4 基于深度學(xué)習(xí)的信道譯碼 210
10.4.1 優(yōu)化傳統(tǒng)“黑箱”神經(jīng)網(wǎng)絡(luò) 210
10.4.2 參數(shù)化傳統(tǒng)譯碼算法 211
10.5 基于深度學(xué)習(xí)的Turbo 碼譯碼 216
10.5.1 模型的構(gòu)建 216
10.5.2 性能仿真 226
10.5.3 仿真程序 228
10.6 本章小結(jié) 250
參考文獻(xiàn) 250