《集成學習入門與實戰(zhàn):原理、算法與應用》通過6章內容全面地解讀了集成學習的基礎知識、集成學習技術、集成學習庫和實踐應用。其中集成學習技術包括采樣、Bagging、投票集成、Boosting、AdaBoost、梯度提升、XGBoost、Stacking、隨機森林、決策樹等,從混合訓練數(shù)據到混合模型,再到混合組合,邏輯嚴謹、逐步講解;同時也對ML-集成學習、Dask、LightGBM、AdaNet等集成學習庫相關技術進行了詳細解讀;最后通過相關實踐對集成學習進行綜合性應用。本書配有邏輯框圖、關鍵代碼及代碼分析,使讀者在閱讀中能夠及時掌握算法含義和對應代碼。
本書適合集成學習的初學者和機器學習方向的從業(yè)者和技術人員閱讀學習,也適合開設機器學習等算法課程的高等院校師生使用。
第1章 為什么需要集成學習 001
1.1 混合訓練數(shù)據 003
1.2 混合模型 004
1.3 混合組合 008
1.4 本章小結 009
第2章 混合訓練數(shù)據 011
2.1 決策樹 013
2.2 數(shù)據集采樣 018
2.2.1 不替換采樣(WOR) 018
2.2.2 替換采樣(WR) 019
2.3 Bagging(裝袋算法) 021
2.3.1 k重交叉驗證 024
2.3.2 分層的k重交叉驗證 026
2.4 本章小結 028
第3章 混合模型 029
3.1 投票集成 030
3.2 硬投票 031
3.3 均值法/軟投票 033
3.4 超參數(shù)調試集成 036
3.5 水平投票集成 038
3.6 快照集成 044
3.7 本章小結 046
第4章 混合組合 047
4.1 Boosting(提升算法) 048
4.1.1 AdaBoost(自適應提升算法) 049
4.1.2 Gradient Boosting(梯度提升算法) 051
4.1.3 XGBoost(極端梯度提升算法) 053
4.2 Stacking(堆疊算法) 055
4.3 本章小結 058
第5章 集成學習庫 059
5.1 ML-集成學習 060
5.1.1 多層集成 063
5.1.2 集成模型的選擇 064
5.2 通過Dask擴展XGBoost 069
5.2.1 Dask數(shù)組與數(shù)據結構 071
5.2.2 Dask-ML 076
5.2.3 擴展XGBoost 079
5.2.4 微軟LightGBM 082
5.2.5 AdaNet 088
5.3 本章小結 090
第6章 實踐指南 092
6.1 基于隨機森林的特征選擇 093
6.2 基于集成樹的特征轉換 096
6.3 構建隨機森林分類器預處理程序 103
6.4 孤立森林進行異常點檢測 110
6.5 使用Dask庫進行集成學習處理 114
6.5.1 預處理 115
6.5.2 超參數(shù)搜索 117
6.6 本章小結 121
致謝 122