Transformer&ChatGPT解密:原理、源碼及案例
定 價:129 元
當前圖書已被 2 所學校薦購過!
查看明細
- 作者:王家林,段智華 編
- 出版時間:2024/4/1
- ISBN:9787512443105
- 出 版 社:北京航空航天大學出版社
- 中圖法分類:TP391
- 頁碼:
- 紙張:膠版紙
- 版次:
- 開本:16開
本書是一本系統(tǒng)介紹Transformer原理、源碼、應用的技術書籍,全書分為Transformer架構(gòu)及源碼篇、ChatGPT技術:從基礎應用到進階實踐篇。
Transformer架構(gòu)及源碼篇,從Transformer的基本原理入手,深入淺出進行講解,可使讀者能夠深刻理解Transformer的工作原理和設計思想,包括Transformer架構(gòu)的理論知識、實際案例以及Transformer架構(gòu)在時序預測等領域的應用等。本篇特點是采用大量的圖片和圖表,通過圖文并茂的方式讓讀者直觀地了解Trans-former的原理和應用和Bayesian Transformer思想及數(shù)學原理完整論證、Transformer架構(gòu)源碼完整實現(xiàn)、Transformer語言模型架構(gòu)、數(shù)學原理及內(nèi)幕機制、GPT自回歸語言模型架構(gòu)、數(shù)學原理及內(nèi)幕機制、BERT下的自編碼語言模型架構(gòu)、數(shù)學原理及內(nèi)幕機制、BE等
●第1篇Transformer架構(gòu)及源碼篇
第1章Bayesian Transformer思想及數(shù)學原理完整論證
1.1貝葉斯數(shù)學原理
1.2MLE和MAP數(shù)學推導
1.3語言模型Language Model原理機制、數(shù)學推導及神經(jīng)網(wǎng)絡實現(xiàn)
1.4圖解Transformer精髓
1.5Bayesian Transformer和傳統(tǒng)Transformer的主要區(qū)別
1.6Bayesian Transformer在學術和工業(yè)領域的意義
1.7貝葉斯Bayesian Transformer數(shù)學推導論證過程全生命周期詳解及底層神經(jīng)網(wǎng)絡物理機制剖析
第2章Transformer架構(gòu)源碼完整實現(xiàn)
2.1Transformer架構(gòu)內(nèi)部的等級化結(jié)構(gòu)及其在NLP中的應用內(nèi)幕
2.2數(shù)學內(nèi)幕、注意力機制代碼實現(xiàn)及Transformer可視化
2.3以對話機器人的流式架構(gòu)為例闡述Transformer學習的第三境界
2.4以智能對話機器人為例闡述Transformer的自編碼autoencoding和自回歸autoregressive語言模型內(nèi)幕機制
第3章Transformer語言模型架構(gòu)、數(shù)學原理及內(nèi)幕機制
……