機(jī)器學(xué)習(xí)——原理、算法與應(yīng)用
定 價(jià):88 元
當(dāng)前圖書已被 33 所學(xué)校薦購(gòu)過(guò)!
查看明細(xì)
- 作者:雷明
- 出版時(shí)間:2019/9/1
- ISBN:9787302532347
- 出 版 社:清華大學(xué)出版社
- 中圖法分類:TP181
- 頁(yè)碼:
- 紙張:膠版紙
- 版次:
- 開本:16開
機(jī)器學(xué)習(xí)是當(dāng)前解決很多人工智能問(wèn)題的核心技術(shù),自2012年以來(lái),深度學(xué)習(xí)的出現(xiàn)帶來(lái)了人工智能復(fù)興。本書是機(jī)器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域的入門與提高教材,緊密結(jié)合工程實(shí)踐與應(yīng)用,系統(tǒng)、深入地講述機(jī)器學(xué)習(xí)與深度學(xué)習(xí)的主流方法與理論。全書由23章組成,共分為三大部分。第1~3章為*部分,介紹機(jī)器學(xué)習(xí)的基本原理、所需的數(shù)學(xué)知識(shí)(包括微積分、線性代數(shù)、*化方法和概率論),以及機(jī)器學(xué)習(xí)中的核心概念。第4~22章為第二部分,是本書的主體,介紹各種常用的有監(jiān)督學(xué)習(xí)算法、無(wú)監(jiān)督學(xué)習(xí)算法、半監(jiān)督學(xué)習(xí)算法和強(qiáng)化學(xué)習(xí)算法。對(duì)于每種算法,從原理與推導(dǎo)、工程實(shí)現(xiàn)和應(yīng)用3個(gè)方面進(jìn)行介紹,對(duì)于大多數(shù)算法,都配有實(shí)驗(yàn)程序。第23章為第三部分,介紹機(jī)器學(xué)習(xí)和深度學(xué)習(xí)算法實(shí)際應(yīng)用時(shí)面臨的問(wèn)題,并給出典型的解決方案。
本書理論推導(dǎo)與證明詳細(xì)、深入,結(jié)構(gòu)清晰,詳細(xì)地講述主要算法的原理與細(xì)節(jié),讓讀者不僅知其然,還知其所以然,真正理解算法、學(xué)會(huì)使用算法。對(duì)于計(jì)算機(jī)、人工智能及相關(guān)專業(yè)的本科生和研究生,這是一本適合入門與系統(tǒng)學(xué)習(xí)的教材;對(duì)于從事人工智能和機(jī)器學(xué)習(xí)產(chǎn)品研發(fā)的工程技術(shù)人員,本書也具有很強(qiáng)的參考價(jià)值。
全面系統(tǒng)地講述了深度學(xué)習(xí)、機(jī)器學(xué)習(xí)的主要算法,包括有監(jiān)督學(xué)習(xí),無(wú)監(jiān)督學(xué)習(xí),強(qiáng)化學(xué)習(xí)的54種算法。對(duì)算法的思想,推導(dǎo)與證明,實(shí)現(xiàn)要點(diǎn)有清晰透徹的闡述 對(duì)機(jī)器學(xué)習(xí)、深度學(xué)習(xí)算法在計(jì)算機(jī)視覺(jué),自然語(yǔ)言處理,語(yǔ)音識(shí)別等領(lǐng)域的應(yīng)用有詳細(xì)的介紹 配有20個(gè)實(shí)驗(yàn)程序,包含18份源代碼,幫助讀者正確的掌握算法與開源庫(kù)的使用 配有25個(gè)講解視頻,對(duì)復(fù)雜、難以理解的知識(shí)點(diǎn)有清晰透徹的講解
序
近年來(lái),隨著IBM沃森、谷歌DeepMind AlphaGo等新型人機(jī)系統(tǒng)的橫空出世,人工智能日益受到全社會(huì)的關(guān)注,媒體報(bào)道熱度空前。事實(shí)上,伴隨大數(shù)據(jù)、深度學(xué)習(xí)、智能芯片等技術(shù)的成熟、政府的扶持以及資本的持續(xù)投入,一方面在前端催生了刷臉支付、智能音箱、以圖搜圖、智能翻譯等新的商業(yè)場(chǎng)景和產(chǎn)品;另一方面,人工智能在后端也正深刻地改變著既有的技術(shù)模式和流程。例如,在端對(duì)端的深度神經(jīng)網(wǎng)絡(luò)中,一些傳統(tǒng)的特征工程模塊被弱化乃至取代;原本基于單步預(yù)測(cè)的個(gè)性化推薦引擎被強(qiáng)化學(xué)習(xí)技術(shù)改造。
放眼世界,人工智能正成為國(guó)際競(jìng)爭(zhēng)的新焦點(diǎn)。英國(guó)、美國(guó)、新加坡等國(guó)家也各自提出了推動(dòng)人工智能相關(guān)技術(shù)與產(chǎn)業(yè)發(fā)展的綱要與規(guī)劃。美國(guó)國(guó)防部高級(jí)研究計(jì)劃局則于2018年9月宣布將投入20億美元開展一項(xiàng)名為 AI Next 的計(jì)劃,其旨在加速人工智能研究。MIT則計(jì)劃斥資10億美元,建設(shè)新的計(jì)算機(jī)學(xué)院,致力于將人工智能技術(shù)用于該校的所有研究領(lǐng)域。在國(guó)內(nèi),國(guó)務(wù)院于2017年7月發(fā)布了《國(guó)務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》。清華大學(xué)、上海交通大學(xué)、南京大學(xué)等國(guó)內(nèi)頂級(jí)高校,也陸續(xù)成立了自己的人工智能研究院。在工業(yè)界,商湯、曠視、依圖等人工智能獨(dú)角獸企業(yè),也帶動(dòng)了人工智能技術(shù)在國(guó)內(nèi)的落地與發(fā)展。
從學(xué)術(shù)角度來(lái)看,以1956年達(dá)特茅斯會(huì)議作為人工智能學(xué)科公認(rèn)的起點(diǎn),60多年的沉浮史見證了多次起伏,誕生了多個(gè)思想學(xué)派。近30年的人工智能發(fā)展,在作者看來(lái),機(jī)器學(xué)習(xí)(包括深度學(xué)習(xí))成為這期間的主流思想和技術(shù)。支持向量機(jī)、隨機(jī)森林、決策樹、卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、生成對(duì)抗網(wǎng)絡(luò)和強(qiáng)化學(xué)習(xí)等方法層出不窮,構(gòu)成了當(dāng)代人工智能的華麗篇章。與此同時(shí),大量機(jī)器學(xué)習(xí)開源框架和成型工具對(duì)用戶日益友好。初學(xué)者往往不需要太多的數(shù)學(xué)基礎(chǔ)和編程能力,簡(jiǎn)單調(diào)用接口即可完成一些人工智能任務(wù)。這些條件往往可以快速給予初學(xué)者信心,鼓勵(lì)更多人才進(jìn)入人工智能相關(guān)領(lǐng)域,推動(dòng)了人工智能的應(yīng)用。同時(shí),一些從業(yè)者對(duì)開源軟件或者框架的過(guò)度依賴,乃至抱著一種不求甚解的態(tài)度,不去理解和掌握主要算法和模型背后的原理和數(shù)學(xué)基礎(chǔ)。如此一來(lái),個(gè)體的技術(shù)發(fā)展?jié)摿κ芟,而整個(gè)行業(yè)的持續(xù)發(fā)展也將缺乏高層次人才基礎(chǔ)。事實(shí)上,盡管人工智能算法工具日益傻瓜化,甚至出現(xiàn)了AutoML這樣的自動(dòng)化機(jī)器學(xué)習(xí)技術(shù),然而深刻理解算法背后的機(jī)理,可對(duì)具體問(wèn)題選擇合適模型、訓(xùn)練算法和超參數(shù)的能力,充分體現(xiàn)機(jī)器學(xué)習(xí)從業(yè)者的創(chuàng)新能力和解決問(wèn)題的能力。
本人全面閱讀了雷明老師的作品,在語(yǔ)言精確性和條理性、內(nèi)容全面性和完整性、理論深度以及工程實(shí)踐指導(dǎo)方面,不啻為集專業(yè)性與通俗性為一體的上乘之作。特別是在公式步步推導(dǎo)的細(xì)節(jié)方面,有非常仔細(xì)的表述,給人一種踏實(shí)的感覺(jué)。我相信通過(guò)本書,讀者將可以高效、細(xì)致、全面地掌握機(jī)器學(xué)習(xí)的主流知識(shí)點(diǎn)和整體脈絡(luò)。在碰到具體問(wèn)題時(shí),本書的專業(yè)內(nèi)容也方便讀者進(jìn)行快速查閱和鞏固。
人工智能的車輪滾滾向前,從業(yè)人員都力圖趕上趨勢(shì)的發(fā)展。開卷有益,希望本書能夠幫助讀者打好機(jī)器學(xué)習(xí)的內(nèi)功基礎(chǔ),緩解部分從業(yè)者內(nèi)心的焦慮。相信翻看此書時(shí)的獲得感和充實(shí)感,會(huì)為讀者留下一段美好的回憶。
上海交通大學(xué)特別研究員嚴(yán)駿馳
2018年11月于廣州白云國(guó)際會(huì)議中心
前言
自2012年以來(lái),得益于深度學(xué)習(xí)技術(shù)的迅猛進(jìn)步,人工智能在學(xué)術(shù)界與產(chǎn)業(yè)界都迎來(lái)了蓬勃發(fā)展。深度學(xué)習(xí)現(xiàn)階段較好地解決了圖像識(shí)別、聲音識(shí)別等感知類問(wèn)題。與之相對(duì)應(yīng)的是優(yōu)秀教材的缺乏,由于技術(shù)的快速進(jìn)步,此前的經(jīng)典書籍面臨內(nèi)容老化問(wèn)題。本書旨在幫助人工智能相關(guān)方向的在校學(xué)生與工程技術(shù)人員更好地理解和掌握機(jī)器學(xué)習(xí)技術(shù),本書的前身為2019年1月出版的《機(jī)器學(xué)習(xí)與應(yīng)用》,筆者對(duì)該書做了大量?jī)?yōu)化,刪除了開源庫(kù)代碼分析,增加了若干重要算法的講解,將C 版的示例程序改為Python版。
全書從原理與應(yīng)用兩個(gè)角度進(jìn)行講述。系統(tǒng)而深入地講解了目前主要的機(jī)器學(xué)習(xí)與深學(xué)習(xí)算法,包括有監(jiān)督學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)、強(qiáng)化學(xué)習(xí)4種類型。對(duì)于主要的算法,分為理論、實(shí)驗(yàn)程序、實(shí)際應(yīng)用3部分進(jìn)行講解。對(duì)于核心的推導(dǎo)和證明,筆者都詳細(xì)地給出。
學(xué)習(xí)本書需要讀者具有數(shù)學(xué)(包括微積分、線性代數(shù)、概率論等本科數(shù)學(xué)知識(shí),以及最優(yōu)化方法)與程序設(shè)計(jì)(至少掌握一門編程語(yǔ)言)的基礎(chǔ)知識(shí)。
本書對(duì)深度學(xué)習(xí)算法與理論做了重點(diǎn)與深入的講解。對(duì)于卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)等應(yīng)用最為廣泛的方法,詳細(xì)地介紹了它們的原理與實(shí)現(xiàn),并分析了截至2017年的主要學(xué)術(shù)論文,保證了本書內(nèi)容能夠反映學(xué)術(shù)界與工程界的新成果。
機(jī)器學(xué)習(xí)是范圍極廣、內(nèi)容龐雜的一門學(xué)科,技術(shù)發(fā)展日新月異,由于筆者的水平與經(jīng)驗(yàn)有限,書中難免有錯(cuò)誤與理解不到位的地方,敬請(qǐng)讀者指正!
雷明
2019年6月
雷明,致力于研發(fā)機(jī)器學(xué)習(xí)與深度學(xué)習(xí)、計(jì)算機(jī)視覺(jué)框架,SIGAI創(chuàng)始人。2009年畢業(yè)于清華大學(xué)計(jì)算機(jī)系,獲碩士學(xué)位,研究方向?yàn)闄C(jī)器學(xué)習(xí)、計(jì)算機(jī)視覺(jué),發(fā)表論文數(shù)篇。曾就職于百度公司,任高級(jí)軟件工程師和項(xiàng)目經(jīng)理;zmodo/meshare,任CTO與平臺(tái)研發(fā)中心負(fù)責(zé)人。在機(jī)器學(xué)習(xí)、計(jì)算機(jī)視覺(jué)方向有豐富的學(xué)術(shù)研究與產(chǎn)品研發(fā)經(jīng)驗(yàn)。
第一部分基本概念與數(shù)學(xué)知識(shí)
第1章機(jī)器學(xué)習(xí)簡(jiǎn)介3
1.1機(jī)器學(xué)習(xí)是什么3
1.1.1一個(gè)簡(jiǎn)單的例子3
1.1.2為什么需要機(jī)器學(xué)習(xí)5
1.2典型應(yīng)用7
1.2.1語(yǔ)音識(shí)別7
1.2.2人臉檢測(cè)8
1.2.3人機(jī)對(duì)弈9
1.2.4機(jī)器翻譯10
1.2.5自動(dòng)駕駛11
1.3發(fā)展歷程11
1.3.1歷史成就11
1.3.2當(dāng)前進(jìn)展12
1.4關(guān)于本書13
參考文獻(xiàn)13
第2章數(shù)學(xué)知識(shí)15
2.1微積分和線性代數(shù)15
2.1.1導(dǎo)數(shù)15
2.1.2向量與矩陣17
2.1.3偏導(dǎo)數(shù)與梯度19
2.1.4雅可比矩陣20
2.1.5Hessian矩陣21
2.1.6泰勒展開22
2.1.7行列式22
2.1.8特征值與特征向量23
2.1.9奇異值分解24
2.1.10二次型24
2.1.11向量與矩陣求導(dǎo)24
2.2最優(yōu)化方法25
〖1〗
〖2〗機(jī)器學(xué)習(xí)原理、算法與應(yīng)用
〖1〗
目錄
2.2.1梯度下降法25
2.2.2牛頓法26
2.2.3坐標(biāo)下降法27
2.2.4拉格朗日乘數(shù)法28
2.2.5凸優(yōu)化28
2.2.6拉格朗日對(duì)偶32
2.2.7KKT條件34
2.2.8擬牛頓法35
2.2.9面臨的問(wèn)題36
2.3概率論37
2.3.1隨機(jī)事件與概率37
2.3.2條件概率37
2.3.3隨機(jī)變量38
2.3.4數(shù)學(xué)期望與方差39
2.3.5隨機(jī)向量39
2.3.6最大似然估計(jì)40
參考文獻(xiàn)41
第3章基本概念42
3.1算法分類42
3.1.1監(jiān)督信號(hào)42
3.1.2分類問(wèn)題與回歸問(wèn)題43
3.1.3判別模型與生成模型45
3.1.4強(qiáng)化學(xué)習(xí)45
3.2模型評(píng)價(jià)指標(biāo)46
3.2.1精度與召回率46
3.2.2ROC曲線46
3.2.3混淆矩陣48
3.2.4交叉驗(yàn)證48
3.3模型選擇48
3.3.1過(guò)擬合與欠擬合48
3.3.2偏差與方差分解49
3.3.3正則化50
參考文獻(xiàn)52
第二部分主要的機(jī)器學(xué)習(xí)算法與理論
第4章貝葉斯分類器55
4.1貝葉斯決策55
4.2樸素貝葉斯分類器56
4.2.1離散型特征56
4.2.2連續(xù)型特征57
4.3正態(tài)貝葉斯分類器57
4.3.1訓(xùn)練算法57
4.3.2預(yù)測(cè)算法58
4.4實(shí)驗(yàn)程序59
4.5應(yīng)用61
參考文獻(xiàn)61
第5章決策樹62
5.1樹形決策過(guò)程62
5.2分類與回歸樹63
5.3訓(xùn)練算法64
5.3.1遞歸分裂過(guò)程64
5.3.2尋找最佳分裂64
5.3.3葉子節(jié)點(diǎn)值的設(shè)定67
5.3.4屬性缺失問(wèn)題67
5.3.5剪枝算法68
5.3.6訓(xùn)練算法的流程69
5.3.7計(jì)算變量的重要性70
5.4實(shí)驗(yàn)程序70
5.5應(yīng)用71
參考文獻(xiàn)71
第6章k近鄰算法72
6.1基本概念72
6.2預(yù)測(cè)算法72
6.3距離定義73
6.3.1常用距離定義74
6.3.2距離度量學(xué)習(xí)74
6.4實(shí)驗(yàn)程序75
6.5應(yīng)用76
參考文獻(xiàn)76
第7章數(shù)據(jù)降維78
7.1主成分分析78
7.1.1數(shù)據(jù)降維問(wèn)題78
7.1.2計(jì)算投影矩陣78
7.1.3向量降維81
7.1.4向量重構(gòu)81
7.2流形學(xué)習(xí)81
7.2.1局部線性嵌入82
7.2.2拉普拉斯特征映射83
7.2.3局部保持投影86
7.2.4等距映射87
7.2.5隨機(jī)近鄰嵌入88
7.2.6t分布隨機(jī)近鄰嵌入89
7.3實(shí)驗(yàn)程序90
7.4應(yīng)用91
參考文獻(xiàn)91
第8章線性判別分析92
8.1用投影進(jìn)行分類92
8.2投影矩陣92
8.2.1一維的情況92
8.2.2推廣到高維94
8.3實(shí)驗(yàn)程序96
8.4應(yīng)用96
參考文獻(xiàn)97
第9章人工神經(jīng)網(wǎng)絡(luò)98
9.1多層前饋型神經(jīng)網(wǎng)絡(luò)98
9.1.1神經(jīng)元98
9.1.2網(wǎng)絡(luò)結(jié)構(gòu)99
9.1.3正向傳播算法100
9.2反向傳播算法101
9.2.1一個(gè)簡(jiǎn)單的例子101
9.2.2完整的算法105
9.3實(shí)驗(yàn)程序109
9.4理論解釋110
9.4.1數(shù)學(xué)性質(zhì)110
9.4.2與神經(jīng)系統(tǒng)的關(guān)系111
9.5面臨的問(wèn)題111
9.5.1梯度消失111
9.5.2退化111
9.5.3局部極小值111
9.5.4鞍點(diǎn)111
9.6實(shí)現(xiàn)細(xì)節(jié)問(wèn)題112
9.6.1輸入值與輸出值112
9.6.2網(wǎng)絡(luò)規(guī)模112
9.6.3激活函數(shù)112
9.6.4損失函數(shù)113
9.6.5權(quán)重初始化113
9.6.6正則化113
9.6.7學(xué)習(xí)率的設(shè)定114
9.6.8動(dòng)量項(xiàng)114
9.7應(yīng)用114
參考文獻(xiàn)115
第10章支持向量機(jī)118
10.1線性分類器118
10.1.1線性分類器概述118
10.1.2分類間隔118
10.2線性可分的問(wèn)題119
10.2.1原問(wèn)題119
10.2.2對(duì)偶問(wèn)題120
10.3線性不可分的問(wèn)題123
10.3.1原問(wèn)題123
10.3.2對(duì)偶問(wèn)題123
10.4核映射與核函數(shù)126
10.5SMO算法129
10.5.1求解子問(wèn)題129
10.5.2優(yōu)化變量的選擇132
10.6多分類問(wèn)題133
10.7實(shí)驗(yàn)程序134
10.8libsvm簡(jiǎn)介136
10.8.1求解算法137
10.8.2庫(kù)的使用140
10.9應(yīng)用142
參考文獻(xiàn)143
第11章線性模型145
11.1logistic回歸145
11.1.1第一種表述145
11.1.2第二種表述147
11.1.3L2正則化原問(wèn)題148
11.1.4L2正則化對(duì)偶問(wèn)題151
11.1.5L1正則化原問(wèn)題152
11.1.6實(shí)驗(yàn)程序154
11.2線性支持向量機(jī)156
11.2.1L2正則化L1loss SVC原問(wèn)題156
11.2.2L2正則化L2loss SVC原問(wèn)題156
11.2.3L2正則化SVC對(duì)偶問(wèn)題157
11.2.4L1正則化L2loss SVC原問(wèn)題158
11.2.5多類線性支持向量機(jī)158
11.2.6實(shí)驗(yàn)程序160
11.3liblinear簡(jiǎn)介160
11.3.1求解的問(wèn)題161
11.3.2庫(kù)的使用161
11.4softmax回歸162
11.5應(yīng)用164
參考文獻(xiàn)165
第12章隨機(jī)森林166
12.1集成學(xué)習(xí)166
12.1.1隨機(jī)抽樣166
12.1.2Bagging算法167
12.2隨機(jī)森林概述167
12.3訓(xùn)練算法167
12.4變量的重要性168
12.5實(shí)驗(yàn)程序169
12.6應(yīng)用169
參考文獻(xiàn)169
第13章Boosting算法171
13.1AdaBoost算法171
13.1.1強(qiáng)分類器與弱分類器171
13.1.2訓(xùn)練算法172
13.1.3訓(xùn)練誤差分析174
13.2廣義加法模型176
13.3各種AdaBoost算法177
13.3.1離散型AdaBoost177
13.3.2實(shí)數(shù)型AdaBoost179
13.3.3LogitBoost180
13.3.4Gentle型AdaBoost181
13.4實(shí)現(xiàn)細(xì)節(jié)問(wèn)題182
13.4.1弱分類器182
13.4.2弱分類器的數(shù)量182
13.4.3樣本權(quán)重削減183
13.5實(shí)驗(yàn)程序183
13.6梯度提升算法183
13.6.1梯度提升框架184
13.6.2回歸問(wèn)題185
13.6.3分類問(wèn)題185
13.6.4XGBoost187
13.7應(yīng)用目標(biāo)檢測(cè)189
13.7.1VJ框架的原理190
13.7.2模型訓(xùn)練192
參考文獻(xiàn)193
第14章深度學(xué)習(xí)概論195
14.1機(jī)器學(xué)習(xí)面臨的挑戰(zhàn)195
14.1.1人工特征196
14.1.2機(jī)器學(xué)習(xí)算法197
14.2深度學(xué)習(xí)技術(shù)197
14.3進(jìn)展與典型應(yīng)用199
14.3.1計(jì)算機(jī)視覺(jué)200
14.3.2語(yǔ)音識(shí)別202
14.3.3自然語(yǔ)言處理202
14.3.4計(jì)算機(jī)圖形學(xué)203
14.3.5推薦系統(tǒng)203
14.3.6深度強(qiáng)化學(xué)習(xí)204
14.4自動(dòng)編碼器204
14.4.1自動(dòng)編碼器簡(jiǎn)介204
14.4.2去噪自動(dòng)編碼器205
14.4.3稀疏自動(dòng)編碼器205
14.4.4收縮自動(dòng)編碼器206
14.4.5多層編碼器206
14.5受限玻爾茲曼機(jī)206
14.5.1玻爾茲曼分布206
14.5.2受限玻爾茲曼機(jī)結(jié)構(gòu)207
14.5.3訓(xùn)練算法209
14.5.4深度玻爾茲曼機(jī)210
14.5.5深度置信網(wǎng)210
參考文獻(xiàn)210
第15章卷積神經(jīng)網(wǎng)絡(luò)218
15.1網(wǎng)絡(luò)結(jié)構(gòu)218
15.1.1卷積層219
15.1.2池化層222
15.1.3全連接層222
15.2訓(xùn)練算法223
15.2.1卷積層223
15.2.2池化層226
15.2.3隨機(jī)梯度下降法227
15.2.4遷移學(xué)習(xí)228
15.3典型網(wǎng)絡(luò)228
15.3.1LeNet5網(wǎng)絡(luò)228
15.3.2AlexNet網(wǎng)絡(luò)229
15.3.3VGG網(wǎng)絡(luò)230
15.3.4GoogLeNet網(wǎng)絡(luò)231
15.4理論分析232
15.4.1反卷積運(yùn)算232
15.4.2卷積層可視化233
15.4.3理論解釋235
15.5挑戰(zhàn)與改進(jìn)措施236
15.5.1卷積層236
15.5.2池化層236
15.5.3激活函數(shù)237
15.5.4損失函數(shù)237
15.5.5網(wǎng)絡(luò)結(jié)構(gòu)237
15.5.6批量歸一化241
15.6實(shí)現(xiàn)細(xì)節(jié)242
15.6.1卷積層242
15.6.2激活函數(shù)244
15.6.3內(nèi)積層244
15.6.4損失層245
15.6.5求解器248
15.7應(yīng)用計(jì)算機(jī)視覺(jué)251
15.7.1人臉檢測(cè)251
15.7.2通用目標(biāo)檢測(cè)254
15.7.3人臉關(guān)鍵點(diǎn)定位262
15.7.4人臉識(shí)別263
15.7.5圖像分割265
參考文獻(xiàn)266
第16章循環(huán)神經(jīng)網(wǎng)絡(luò)270
16.1網(wǎng)絡(luò)結(jié)構(gòu)270
16.1.1循環(huán)層270
16.1.2輸出層271
16.1.3一個(gè)簡(jiǎn)單的例子272
16.1.4深層網(wǎng)絡(luò)272
16.2網(wǎng)絡(luò)的訓(xùn)練273
16.2.1一個(gè)簡(jiǎn)單的例子273
16.2.2完整的算法275
16.3挑戰(zhàn)與改進(jìn)措施277
16.3.1梯度消失277
16.3.2長(zhǎng)短期記憶模型278
16.3.3門控循環(huán)單元279
16.3.4雙向網(wǎng)絡(luò)279
16.4序列預(yù)測(cè)問(wèn)題280
16.4.1序列標(biāo)注問(wèn)題280
16.4.2連接主義時(shí)序分類281
16.4.3序列到序列學(xué)習(xí)285
16.5應(yīng)用語(yǔ)音識(shí)別287
16.5.1語(yǔ)音識(shí)別問(wèn)題287
16.5.2GMMHMM框架288
16.5.3深度模型288
16.6應(yīng)用自然語(yǔ)言處理291
16.6.1中文分詞292
16.6.2詞性標(biāo)注293
16.6.3命名實(shí)體識(shí)別293
16.6.4文本分類294
16.6.5自動(dòng)摘要296
16.6.6機(jī)器翻譯296
參考文獻(xiàn)298
第17章生成對(duì)抗網(wǎng)絡(luò)302
17.1隨機(jī)數(shù)據(jù)生成302
17.2生成對(duì)抗網(wǎng)絡(luò)結(jié)構(gòu)303
17.2.1生成模型303
17.2.2判別模型304
17.3模型的訓(xùn)練304
17.3.1目標(biāo)函數(shù)304
17.3.2訓(xùn)練算法305
17.3.3理論分析306
17.4應(yīng)用與改進(jìn)307
17.4.1改進(jìn)方案308
17.4.2典型應(yīng)用311
參考文獻(xiàn)313
第18章聚類算法314
18.1問(wèn)題定義314
18.2層次聚類315
18.3基于質(zhì)心的算法315
18.4基于概率分布的算法316
18.4.1高斯混合模型316
18.4.2EM算法317
18.5基于密度的算法322
18.5.1DBSCAN算法322
18.5.2OPTICS算法324
18.5.3Mean Shift算法326
18.6基于圖的算法328
18.7算法評(píng)價(jià)指標(biāo)331
18.7.1內(nèi)部指標(biāo)331
18.7.2外部指標(biāo)331
18.8實(shí)驗(yàn)程序332
18.9應(yīng)用332
參考文獻(xiàn)332
第19章半監(jiān)督學(xué)習(xí)334
19.1問(wèn)題假設(shè)334
19.1.1連續(xù)性假設(shè)334
19.1.2聚類假設(shè)334
19.1.3流形假設(shè)334
19.1.4低密度分割假設(shè)334
19.2啟發(fā)式算法335
19.2.1自訓(xùn)練335
19.2.2協(xié)同訓(xùn)練335
19.3生成模型335
19.4低密度分割336
19.5基于圖的算法336
19.6半監(jiān)督深度學(xué)習(xí)337
參考文獻(xiàn)338
第20章隱馬爾可夫模型340
20.1馬爾可夫模型340
20.2隱馬爾可夫模型簡(jiǎn)介343
20.2.1模型結(jié)構(gòu)343
20.2.2中文分詞345
20.3估值問(wèn)題345
20.4解碼問(wèn)題347
20.5訓(xùn)練算法349
20.6應(yīng)用352
參考文獻(xiàn)352
第21章條件隨機(jī)場(chǎng)353
21.1馬爾可夫隨機(jī)場(chǎng)353
21.1.1概率圖模型353
21.1.2馬爾可夫隨機(jī)場(chǎng)354
21.2條件隨機(jī)場(chǎng)概述355
21.2.1條件隨機(jī)場(chǎng)簡(jiǎn)介355
21.2.2線性鏈條件隨機(jī)場(chǎng)355
21.3推斷算法357
21.4訓(xùn)練算法359
21.5應(yīng)用360
參考文獻(xiàn)360
第22章強(qiáng)化學(xué)習(xí)361
22.1強(qiáng)化學(xué)習(xí)簡(jiǎn)介361
22.1.1問(wèn)題定義361
22.1.2馬爾可夫決策過(guò)程362
22.2基于動(dòng)態(tài)規(guī)劃的算法366
22.2.1策略迭代算法366
22.2.2價(jià)值迭代算法368
22.3蒙特卡洛算法369
22.3.1算法簡(jiǎn)介369
22.3.2狀態(tài)價(jià)值函數(shù)估計(jì)370
22.3.3動(dòng)作價(jià)值函數(shù)估計(jì)371
22.3.4蒙特卡洛控制371
22.4時(shí)序差分學(xué)習(xí)372
22.4.1Sarsa算法372
22.4.2Q學(xué)習(xí)373
22.5深度強(qiáng)化學(xué)習(xí)374
22.5.1深度Q網(wǎng)絡(luò)375
22.5.2策略梯度算法378
22.6應(yīng)用381
參考文獻(xiàn)381
第三部分工程實(shí)踐問(wèn)題
第23章工程實(shí)踐問(wèn)題概述385
23.1實(shí)現(xiàn)細(xì)節(jié)問(wèn)題385
23.1.1訓(xùn)練樣本385
23.1.2特征預(yù)處理386
23.1.3模型選擇386
23.1.4過(guò)擬合問(wèn)題386
23.2安全性問(wèn)題387
23.2.1對(duì)抗樣本387
23.2.2形成原因分析389
23.3實(shí)現(xiàn)成本問(wèn)題390
23.3.1訓(xùn)練樣本量390
23.3.2計(jì)算與存儲(chǔ)成本390
23.4深度模型優(yōu)化391
23.4.1剪枝與編碼391
23.4.2二值化網(wǎng)絡(luò)392
23.4.3卷積核分離396
參考文獻(xiàn)397