本書系統(tǒng)地介紹了數(shù)據(jù)科學中的核心理論與實踐方法,為讀者理解和應用這些技術提供了堅實的基礎。本書涵蓋了監(jiān)督學習、無監(jiān)督學習和強化學習的內容。其中,監(jiān)督學習包括理論框架、線性模型、核方法、神經網絡以及一階優(yōu)化方法。無監(jiān)督學習涉及聚類分析、主成分分析和生成學習方法。強化學習提供對相關內容的深入探討。
更多科學出版社服務,請掃碼獲取。
2001年8月 - 2006年8月, 普林斯頓大學,應用與計算數(shù)學專業(yè)博士。
1995年9月 - 2001年7月, 北京大學,計算數(shù)學專業(yè)本科、碩士。中國工業(yè)與應用數(shù)學學會副理事長,湖北省工業(yè)與應用數(shù)學學會理事長
目錄
叢書序
前言
第1章 監(jiān)督學習
1.1從訓練數(shù)據(jù)到預測 2
1.2決策理論 3
第2章 經驗風險最小化
2.1風險的凸性 8
2.2經驗風險分解 13
2.2.1逼近誤差 14
2.2.2估計誤差 14
2.3 Rademacher復雜度 17
2.4非漸近分析和漸近統(tǒng)計的關系 24
2.5練習 25
第3章 線性最小二乘回歸
3.1線性最小二乘回歸的介紹 28
3.2最小二乘的概念 28
3.3普通最小二乘估計 29
3.3.1解析解 29
3.3.2幾何解釋 30
3.4固定設定 32
3.5嶺回歸 34
3.6估計下界 37
3.7隨機設定下的分析 39
3.7.1高斯設定 40
3.7.2一般設定 41
3.8練習 42
第4章 稀疏方法
4.1稀疏方法的介紹 44
4.2 *懲罰變量選擇 47
4.2.1假設k已知 47
4.2.2估計k 49
4.3 *正則化的高維估計 52
4.3.1 慢速率 54
4.3.2 快速率 55
4.3.3 互相關條件 57
4.3.4 隨機設定 58
4.4 擴展 59
4.5 練習 60
第5章 核方法
5.1 核方法的介紹 64
5.2 表示定理 64
5.3 核 66
5.4 算法 72
5.5 Lipschitz連續(xù)的損失函數(shù) 75
5.6 嶺回歸的理論分析 79
5.7 練習 85
第6章 機器學習中優(yōu)化的介紹
6.1 機器學習中的優(yōu)化 88
6.2 梯度下降 89
6.2.1 最簡單的分析:普通最小二乘 89
6.2.2 凸函數(shù)和其他性質 92
6.2.3 強凸和光滑函數(shù)下對梯度下降的分析 93
6.2.4 凸和光滑函數(shù)下對梯度下降的分析 95
6.2.5 除了梯度下降的額外補充 97
6.2.6 非凸目標函數(shù) 98
6.3 在非光滑問題上的梯度下降方法 99
6.4 隨機梯度下降的收斂率 101
6.4.1 強凸問題 103
6.4.2 方差縮減 105
6.5 練習 110
第7章 神經網絡
7.1 神經網絡的介紹116
7.2 單隱藏層神經網絡 116
7.3 單隱藏層神經網絡的近似性質119
7.4 拓展 128
7.5 練習 128
第8章 生成對抗網絡
8.1 生成對抗網絡的介紹130
8.2 通過比較進行學習 131
8.3生成對抗網絡推導、訓練與收斂性138
8.4條件生成對抗網絡 145
8.5利用生成對抗網絡進行推理 146
8.6生成對抗網絡的神經結構146
8.7應用 149
第9章 主成分分析
第10章 強化學習
10.1 強化學習的介紹 166
10.2 基于價值的強化學習 168
10.3 基于策略的強化學習 172
10.4 基于模型的強化學習 178
10.5 離軌策略學習 181
10.6 基于概率推理的強化學習方法 186
第11章 聚類分析
11.1 聚類分析的介紹 194
11.2 分層聚類 196
11.3 K均值聚類 199
參考文獻
附錄A 基礎知識
A.1 線性代數(shù)與微分 209
A.2 集中不等式 212