ChatGPT原理與實戰:大型語言模型的算法、技術和私有化

《ChatGPT原理與實戰:大型語言模型的算法、技術和私有化》是2023年機械工業出版社出版的圖書。

基本介紹

  • 中文名:ChatGPT原理與實戰:大型語言模型的算法、技術和私有化
  • 出版時間:2023年8月1日
  • 出版社:機械工業出版社
  • ISBN:9787111733034
內容簡介,圖書目錄,

內容簡介

這是一本系統梳理並深入解析ChatGPT核心技術、算法實現、工作原理、訓練方法的著作,也是一本能指導你搭建專屬ChatGPT和實現大模型遷移及私有化的著作。本書得到了MOSS系統負責人邱錫鵬等多位專家的高度評價和鼎力推薦。
具體地,通過本書你能了解或掌握以下知識:
ChatGPT的工作流程和技術棧
ChatGPT的工作原理和算法實現
基於Transformer架構的一系列預訓練語言模型的原理
強化學習的基礎知識
提示學習與大模型湧現出的上下文學習、思維鏈
大模型的訓練方法及常見的分散式訓練框架
基於人工反饋的強化學習整體框架
從零搭建類ChatGPT模型,模擬完整的ChatGPT訓練過程
本書集理論、實戰和產業套用於一體,提供大量經詳細注釋的代碼,方便讀者理解和實操。總之,不管里是想深入研究ChatGPT本身,還是正在研發或使用其他大模型,本書都應該能給你頗具價值的技術啟發與思考,讓你在大模型的路上快速前行,少走彎路。

圖書目錄

讚譽
前言
第1章 了解ChatGPT1
1.1 ChatGPT的由來1
1.1.1 什麼是ChatGPT2
1.1.2 ChatGPT的發展歷史2
1.2 ChatGPT的工作流程3
1.3 ChatGPT用例3
1.3.1 日常任務4
1.3.2 編寫代碼5
1.3.3 文本生成6
1.3.4 辦公自動化9
1.4 本章小結10
第2章 ChatGPT原理解構11
2.1 背景知識11
2.1.1 自然語言處理的發展歷程12
2.1.2 大型語言模型的發展歷程14
2.2 ChatGPT同類產品18
2.2.1 BlenderBot 3.018
2.2.2 LaMDA20
2.2.3 Sparrow23
2.3 ChatGPT的工作原理25
2.3.1 預訓練與提示學習階段26
2.3.2 結果評價與獎勵建模階段28
2.3.3 強化學習與自我進化階段28
2.4 算法細節29
2.4.1 標註數據29
2.4.2 建模思路30
2.4.3 存在的問題30
2.5 關於ChatGPT的思考31
2.6 本章小結32
第3章 預訓練語言模型33
3.1 Transformer結構33
3.2 基於Encoder結構的模型36
3.2.1 BERT36
3.2.2 RoBERTa39
3.2.3 ERNIE40
3.2.4 SpanBERT42
3.2.5 MacBERT43
3.2.6 ALBERT44
3.2.7 NeZha45
3.2.8 UniLM46
3.2.9 GLM47
3.2.10 ELECTRA48
3.3 基於Decoder結構的模型49
3.3.1 GPT49
3.3.2 CPM51
3.3.3 PaLM51
3.3.4 OPT52
3.3.5 Bloom53
3.3.6 LLaMA54
3.4 基於Encoder-Decoder結構的模型55
3.4.1 MASS55
3.4.2 BART56
3.4.3 T557
3.5 基於誇誇閒聊數據的UniLM
模型實戰59
3.5.1 項目簡介59
3.5.2 數據預處理模組59
3.5.3 UniLM模型模組63
3.5.4 模型訓練模組65
3.5.5 模型推理模組72
3.6 本章小結76
第4章 強化學習基礎77
4.1 機器學習的分類77
4.1.1 有監督學習78
4.1.2 無監督學習78
4.1.3 強化學習79
4.2 OpenAI Gym82
4.2.1 OpenAI Gym API簡介83
4.2.2 環境簡介84
4.3 強化學習算法85
4.3.1 Q-learning算法85
4.3.2 SARSA算法87
4.3.3 DQN算法89
4.3.4 Policy Gradient算法93
4.3.5 Actor-Critic算法95
4.4 本章小結98
第5章 提示學習與大型語言
 模型的湧現99
5.1 提示學習99
5.1.1 什麼是提示學習100
5.1.2 提示模板設計100
5.1.3 答案空間映射設計102
5.1.4 多提示學習方法103
5.2 上下文學習104
5.2.1 什麼是上下文學習104
5.2.2 預訓練階段提升上下文
學習能力105
5.2.3 推理階段最佳化上下文
學習的效果107
5.3 思維鏈108
5.4 基於提示的文本情感分析實戰113
5.4.1 項目簡介113
5.4.2 數據預處理模組114
5.4.3 BERT模型模組115
5.4.4 模型訓練模組118
5.4.5 模型推理模組128
5.5 本章小結131
第6章 大型語言模型預訓練132
6.1 大型預訓練模型簡介132
6.2 預訓練模型中的分詞器133
6.2.1 BPE133
6.2.2 WordPiece135
6.2.3 Unigram136
6.2.4 SentencePiece137
6.3 分散式深度學習框架138
6.3.1 並行範式簡介139
6.3.2 Megatron-LM145
6.3.3 DeepSpeed147
6.3.4 Colossal-AI149
6.3.5 FairScale152
6.3.6 ParallelFormers153
6.3.7 OneFlow153
6.4 基於大型語言模型的預訓練實戰155
6.4.1 項目簡介155
6.4.2 數據預處理模組156
6.4.3 執行模型訓練159
6.5 基於大型語言模型的信息
   抽取實戰168
6.5.1 項目簡介168
6.5.2 數據預處理模組169
6.5.3 Freeze微調模組172
6.5.4 LoRA微調模組176
6.5.5 P-Tuning v2微調模組181
6.6 本章小結186
第7章 GPT系列模型分析187
7.1 GPT-1~GPT-4系列模型分析187
7.1.1 GPT-1和GPT-2模型187
7.1.2 GPT-3模型189
7.1.3 GPT-3的衍生模型:
Code-X192
7.1.4 GPT-4模型193
7.2 InstructGPT模型分析194
7.2.1 模型簡介194
7.2.2 數據收集195
7.2.3 模型原理198
7.2.4 模型討論199
7.3 基於GPT-2模型的文本摘要實戰200
7.3.1 項目簡介200
7.3.2 數據預處理模組200
7.3.3 GPT-2模型模組202
7.3.4 模型訓練模組204
7.3.5 模型推理模組213
7.4 本章小結219
第8章 PPO算法與RLHF理論實戰220
8.1 PPO算法簡介220
8.1.1 策略梯度算法回顧220
8.1.2 PPO算法原理剖析222
8.1.3 PPO算法對比與評價224
8.2 RLHF框架簡介226
8.2.1 RLHF內部剖析226
8.2.2 RLHF價值分析228
8.2.3 RLHF問題分析229
8.3 基於PPO的正向情感傾向性
生成項目實戰230
8.3.1 項目任務與數據集分析230
8.3.2 數據預處理模組230
8.3.3 模型訓練模組232
8.3.4 模型生成模組234
8.3.5 模型評估模組235
8.4 問題與思考237
8.5 本章小結238
第9章 類ChatGPT實戰239
9.1 任務設計239
9.2 數據準備240
9.3 基於文檔生成問題任務的類
ChatGPT實戰241
9.3.1 SFT階段241
9.3.2 RM階段249
9.3.3 RL階段259
9.4 本章小結270
第10章 ChatGPT發展趨勢271
10.1 AIGC的發展趨勢271
10.1.1 AI雲邊協同272
10.1.2 AI工具套用273
10.1.3 AI可控生成274
10.1.4 AI輔助決策275
10.2 ChatGPT 2C套用場景276
10.2.1 個人助手276
10.2.2 知識導師278
10.2.3 創意集市279
10.2.4 情感伴侶282
10.3 ChatGPT 2B套用場景283
10.3.1 智慧型客服283
10.3.2 辦公助手285
10.3.3 軟體研發287
10.3.4 決策輔助288
10.4 行業參考建議290
10.5 本章小結291

相關詞條

熱門詞條

聯絡我們