大語言模型:原理與工程實踐

大語言模型:原理與工程實踐

《大語言模型:原理與工程實踐》是電子工業出版社出版圖書,楊青 編著。

內容簡介,圖書目錄,作者簡介,

內容簡介

《大語言模型:原理與工程實踐》用10 章對大語言模型進行全面且深入的介紹。首先對大語言模型的基本概念進行介紹。其次,從大語言模型的基礎技術、預訓練數據構建、預訓練技術等方面展開討論,幫助讀者深入了解大語言模型的構建和訓練過程。然後,詳細介紹有監督微調和強化對齊等技術,以及如何評估大語言模型的性能。外,介紹提示工程和工程實踐等方面的內容,幫助讀者了解大語言模型的套用和實際操作過程。最後,介紹如何從零開始微調大語言模型,輔以代碼示例,幫助讀者更好地套用這些技術。
通過閱讀本書,讀者可以獲得全面且深入的大語言模型的知識框架。無論您是研究人員、工程師,還是產品經理,都能從中獲得有價值的知識。

圖書目錄

1 解鎖大語言模型1
1.1 什麼是大語言模型·1
1.2 語言模型的發展·2
1.3 GPT系列模型的發展·3
1.4 大語言模型的關鍵技術·4
1.5 大語言模型的湧現能力·5
1.6 大語言模型的推理能力·5
1.7 大語言模型的縮放定律·6
參考文獻·7
2 大語言模型基礎技術·8
2.1 語言表示介紹·8
2.1.1 詞表示技術·8
2.1.2 分詞技術·9
2.2 經典結構Transformer·14
2.2.1 輸入模組·15
2.2.2 多頭自注意力模組·16
2.2.3 殘差連線與層歸一化·19
2.2.4 前饋神經網路·19
2.2.5 解碼器·19
2.3 預訓練語言模型·21
2.3.1 Decoder的代表:GPT系列·21
2.3.2 Encoder的代表:BERT·23
2.4 初探大語言模型·24
2.4.1 InstructGPT·24
2.4.2 LLaMA系列·28
參考文獻·30
3 預訓練數據構建·32
3.1 數據的常見類別及其來源·32
3.1.1 網頁數據·33
3.1.2 書籍數據·34
3.1.3 百科數據·34
3.1.4 代碼數據·34
3.1.5 其他數據·36
3.2 數據的預處理方式·36
3.2.1 正文提取·37
3.2.2 質量過濾·37
3.2.3 文檔去重·38
3.2.4 數據集淨化·39
3.3 常用數據集的完整構建方式 ·40
3.3.1 C4·40
3.3.2 MassiveText·40
3.3.3 RefinedWeb·41
3.3.4 ROOTS·42
3.4 難點和挑戰·43
3.4.1 數據收集的局限性·43
3.4.2 數據質量評估的挑戰·43
3.4.3 自動生成數據的風險·44
參考文獻·44
4 大語言模型預訓練·46
4.1 大語言模型為什麼這么強·46
4.2 大語言模型的核心模組·49
4.2.1 核心架構·49
4.2.2 組成模組選型·51
4.3 大語言模型怎么訓練·60
4.3.1 訓練目標·60
4.3.2 數據配比·62
4.4 預訓練還有什麼沒有解決·65
參考文獻·66
5 挖掘大語言模型潛能:有監督微調·67
5.1 揭開有監督微調的面紗·67
5.1.1 什麼是有監督微調·67
5.1.2 有監督微調的作用與意義·68
5.1.3 有監督微調的套用場景·68
5.2 有監督微調數據的構建·69
5.2.1 有監督微調數據的格式·69
5.2.2 有監督微調數據的自動化構建·70
5.2.3 有監督微調數據的選擇·75
5.3 大語言模型的微調方法·76
5.3.1 全參數微調·76
5.3.2 適配器微調·76
5.3.3 前綴微調·77
5.3.4 提示微調·78
5.3.5 低秩適配·79
5.4 大語言模型的微調和推理策略·79
5.4.1 混合微調策略·80
5.4.2 基於上下文學習的推理策略·81
5.4.3 基於思維鏈的推理策略·82
5.5 大語言模型微調的挑戰和探索·83
5.5.1 大語言模型微調的幻覺問題·83
5.5.2 大語言模型微調面臨的挑戰·84
5.5.3 大語言模型微調的探索與展望 ·84
參考文獻·85
6 大語言模型強化對齊·87
6.1 強化學習基礎 ·87
6.1.1 強化學習的基本概念·87
6.1.2 強化學習中的隨機性·88
6.1.3 強化學習的目標·89
6.1.4 Q函式與V函式·89
6.2 DQN方法·91
6.2.1 DQN的結構·91
6.2.2 DQN訓練:基本思想·92
6.2.3 DQN訓練:目標網路·94
6.2.4 DQN訓練:探索策略·94
6.2.5 DQN訓練:經驗回放·95
6.2.6 DQN訓練:完整算法·95
6.2.7 DQN決策·96
6.3 策略梯度方法·96
6.3.1 策略網路的結構·96
6.3.2 策略網路訓練:策略梯度·97
6.3.3 策略網路訓練:優勢函式·99
6.3.4 PPO算法·100
6.4 揭秘大語言模型中的強化建模·101
6.4.1 Token-level強化建模·101
6.4.2 Sentence-level強化建模·102
6.5 獎勵模型·103
6.5.1 獎勵模型的結構·103
6.5.2 獎勵模型的訓練·104
6.5.3 獎勵模型損失函式分析·106
6.6 RLHF·108
6.6.1 即時獎勵·108
6.6.2 RLHF算法·109
6.7 RLHF實戰框架·111
6.8 RLHF的難點和問題·111
6.8.1 數據瓶頸·112
6.8.2 硬體瓶頸·113
6.8.3 方法瓶頸·114
參考文獻·115
7 大語言模型的評測·117
7.1 基座語言模型的評測·117
7.1.1 主要的評測維度和基準概述·118
7.1.2 具體案例:LLaMA 2選取的評測基準·118
7.2 大語言模型的對話能力評測·120
7.2.1 評測任務·120
7.2.2 評測集的構建標準·131
7.2.3 評測方式·132
7.3 大語言模型的安全性評測·132
7.3.1 評測任務·133
7.3.2 評測方式和標準·134
7.4 行業大語言模型的評測:以金融行業大語言模型為例·134
7.4.1 金融行業大語言模型的自動化評測集·135
7.4.2 金融行業大語言模型的人工評測集·136
7.5 整體能力的評測·137
7.6 主流評測數據集及基準·138
參考文獻·142
8 大語言模型的套用·143
8.1 大語言模型為什麼需要提示工程·143
8.1.1 人類和大語言模型進行複雜決策的對比·144
8.1.2 提示工程的作用·144
8.2 什麼是提示詞·145
8.2.1 提示詞的基礎要素·146
8.2.2 提示詞設計的通用原則·146
8.3 推理引導·147
8.3.1 零樣本提示·147
8.3.2 少樣本提示·148
8.3.3 思維鏈提示·149
8.3.4 自我一致性提示·150
8.3.5 思維樹提示·151
8.4 動態互動·155
8.4.1 檢索增強生成技術·155
8.4.2 推理和行動協同技術·159
8.5 案例分析·161
8.5.1 案例介紹·161
8.5.2 工具設計·161
8.5.3 提示詞設計·165
8.5.4 案例運行·167
8.6 局限和發展·172
8.6.1 目前的局限·172
8.6.2 未來的發展·173
參考文獻·173
9 工程實踐·175
9.1 大語言模型訓練面臨的挑戰·175
9.2 大語言模型訓練綜述·176
9.2.1 數據並行·176
9.2.2 模型並行·179
9.2.3 ZeRO並行·181
9.3 大語言模型訓練技術選型技巧·184
9.4 大語言模型訓練最佳化秘籍·186
9.4.1 I/O最佳化·186
9.4.2 通信最佳化·187
9.4.3 穩定性最佳化·190
9.5 大語言模型訓練工程實踐·190
9.5.1 DeepSpeed架構·191
9.5.2 DeepSpeed訓練詳解·191
9.5.3 DeepSpeed訓練調優實踐·194
9.6 強化學習工程實踐·196
9.6.1 DeepSpeed-Chat混合引擎架構·196
9.6.2 DeepSpeed-Chat訓練詳解·197
9.6.3 DeepSpeed-Chat訓練調優實踐·199
9.7 大語言模型推理工程·201
9.7.1 提升規模:模型量·202
9.7.2 提高並行度:張量並行·205
9.7.3 推理加速:運算元最佳化·207
9.7.4 降低計算量:KV-Cache·208
9.7.5 推理工程綜合實踐·210
參考文獻·212
10 手把手教你訓練7B大語言模型·214
10.1 自動化訓練框架·214
10.1.1 自動化訓練框架介紹·214
10.1.2 主要模組介紹·215
10.2 動手訓練7B大語言模型·237
10.2.1 語料預處理·238
10.2.2 預訓練實踐·240
10.2.3 指令微調實踐·245
10.3 小結·247

作者簡介

楊青
度小滿金融技術委員會執行主席、數據智慧型套用部總經理,碩士畢業於清華大學計算機系,曾就職於百度、阿里巴巴,從事自然語言處理、搜尋、推薦、大數據架構等相關方向的研發工作。
2018年年初加入度小滿金融,組建數據智慧型部,從0到1構建度小滿金融的智慧型引擎核心算法,深耕計算機視覺、自然語言處理、圖模型、機器學習、因果推斷等技術領域,多篇文章被EMNLP、ACL、CIKM等國際會議收錄,“智慧型化徵信解讀中台”工程榮獲吳文俊人工智慧科技進步獎。相關技術廣泛套用於度小滿行銷、經營、風控、反欺詐全流程業務場景,為上千萬客戶提供穩定、安全的金融服務。
目前,專注於AIGC相關研究及產品落地工作,基於度小滿模型即服務(MaaS)的模式積極探索文生圖、數字人與生成式大語言模型的套用轉化。於2023年年初帶領團隊發布千億參數規模的中文大語言模型“軒轅”。2023年9月, “軒轅-70B”大語言模型在C-Eval和CMMLU兩大權威榜單上位列所有開源模型榜首。

相關詞條

熱門詞條

聯絡我們