Transformer自然語言處理實戰:使用Hugging Face Transformers庫

《Transformer自然語言處理實戰:使用Hugging Face Transformers庫》是2024年機械工業出版社出版的圖書。

基本介紹

  • 中文名:Transformer自然語言處理實戰:使用Hugging Face Transformers庫
  • 出版時間:2024年1月1日
  • 出版社:機械工業出版社
  • ISBN:9787111741923
內容簡介,圖書目錄,

內容簡介

本書涵蓋了Transformer在NLP領域的主要套用。首先介紹Transformer模型和Hugging Face 生態系統。然後重點介紹情感分析任務以及Trainer API、Transformer的架構,並講述了在多語言中識別文本內實體的任務,以及Transformer模型生成文本的能力,還介紹了解碼策略和度量指標。接著深入挖掘了文本摘要這個複雜的序列到序列的任務,並介紹了用於此任務的度量指標。之後聚焦於構建基於評論的問答系統,介紹如何基於Haystack進行信息檢索,探討在缺乏大量標註數據的情況下提高模型性能的方法。最後展示如何從頭開始構建和訓練用於自動填充Python原始碼的模型,並總結Transformer面臨的挑戰以及將這個模型套用於其他領域的一些新研究。

圖書目錄

序1
前言3
第1章 歡迎來到Transformer的世界11
1.1 編碼器-解碼器框架12
1.2 注意力機制14
1.3 NLP的遷移學習15
1.4 Hugging FaceTransformers庫:提供規範化接口18
1.5 Transformer套用概覽19
1.6 Hugging Face生態系統23
1.7 Transformer的主要挑戰27
1.8 本章小結27
第2章 文本分類29
2.1 數據集30
2.2 將文本轉換成詞元36
2.3 訓練文本分類器44
2.4 本章小結60
第3章 Transformer架構剖析62
3.1 Transformer架構62
3.2 編碼器64
3.3 解碼器79
3.4 認識Transformer81
3.5本章小結87
第4章 多語言命名實體識別88
4.1 數據集89
4.2 多語言Transformer93
4.3 多語言詞元化技術94
4.4 命名實體識別中的Transformers96
4.5 自定義Hugging Face Transformers庫模型類98
4.6 NER的詞元化103
4.7 性能度量105
4.8 微調XLM-RoBERTa106
4.9 錯誤分析108
4.10 跨語言遷移114
4.11 用模型小部件進行互動120
4.12 本章小結121
第5章 文本生成122
5.1 生成連貫文本的挑戰123
5.2 貪婪搜尋解碼125
5.3 束搜尋解碼129
5.4 採樣方法132
5.5 top-k和核採樣134
5.6 哪種解碼方法最好136
5.7 本章小結137
第6章 文本摘要138
6.1 CNN/DailyMail數據集138
6.2 文本摘要pipeline139
6.3 比較不同的摘要143
6.4 度量生成文本的質量144
6.5 在CNN/DailyMail數據集上評估PEGASUS150
6.6 訓練摘要模型152
6.7 本章小結158
第7章 構建問答系統160
7.1 構建基於評論的問答系統161
7.2 評估並改進問答pipeline183
7.3 生成式問答196
7.4 本章小結199
第8章 Transformer模型調優201
8.1 以意圖識別為例201
8.2 創建性能基準203
8.3 通過知識蒸餾減小模型大小208
8.4 利用量化技術使模型運算更快220
8.5 基準測試量化模型225
8.6 使用ONNX和ONNX Runtime進行推理最佳化226
8.7 使用權重剪枝使模型更稀疏231
8.8 本章小結235
第9章 零樣本學習和少樣本學習236
9.1 構建GitHub issue標記任務238
9.2 基線模型—樸素貝葉斯245
9.3 零樣本學習248
9.4 少樣本學習256
9.5 利用無標註數據272
9.6 本章小結278
第10章 從零訓練Transformer模型280
10.1 如何尋找大型數據集281
10.2 構建詞元分析器290
10.3 從零訓練一個模型301
10.4 結果與分析315
10.5 本章小結319
第11章 未來發展趨勢321
11.1 Transformer的擴展321
11.2 其他套用領域329
11.3 多模態的Transformer334
11.4 繼續前行的建議342

相關詞條

熱門詞條

聯絡我們