機器閱讀理解:算法與實踐

機器閱讀理解:算法與實踐

《機器閱讀理解:算法與實踐》由微軟高級研究員、史丹福大學計算機系博士、全球閱讀理解競賽冠軍朱晨光撰寫。讓你深入認識機器閱讀理解。由機械工業出版社出版。

基本介紹

  • 中文名:機器閱讀理解:算法與實踐
  • 作者:朱晨光
  • 出版社:機械工業出版社
  • 出版時間:2020年4月1日
  • 頁數:244 頁
  • 定價:79 元
  • 開本:16 開
  • 裝幀:平裝
  • ISBN:9787111649502
內容簡介,圖書目錄,作者簡介,

內容簡介

微軟高級研究員撰寫,剖析機器閱讀理解支撐技術、模型架構、前沿算法、模型SDNet源碼與落地套用。
全書分為三篇,共8章內容。基礎篇(第1~3章),介紹機器閱讀理解的基礎知識和關鍵支撐技術,涵蓋機器閱讀理解任務的定義,閱讀理解模型中常用的自然語言處理技術和深度學習網路模組,例如如何讓計算機表示文章和問題、做多項選擇題及生成回答等。架構篇(第4~6章),介紹解決各類機器閱讀理解任務的基本模型架構和前沿算法,並剖析對機器閱讀理解研究有著重要影響的預訓練模型(如BERT和GPT)。實戰篇(第7~8章),包括筆者在2018年獲得CoQA對話閱讀理解競賽第一名時所用的模型SDNet的代碼解讀,機器閱讀理解在各種工業界套用中的具體落地過程和挑戰,以及筆者對於機器閱讀理解未來發展方向的思考。

圖書目錄

序一
序二
前言
第一篇 基礎篇
第1章 機器閱讀理解與關鍵支撐技術 2
1.1 機器閱讀理解任務 2
1.1.1 機器閱讀理解模型 3
1.1.2 機器閱讀理解的套用 4
1.2 自然語言處理 5
1.2.1 研究現狀 5
1.2.2 仍需解決的問題 6
1.3 深度學習 7
1.3.1 深度學習的特點 7
1.3.2 深度學習的成果 10
1.4 機器閱讀理解任務的測評方式 11
1.4.1 機器閱讀理解的答案形式 11
1.4.2 自由回答式答案評分標準ROUGE 12
1.5 機器閱讀理解數據集 14
1.5.1 單段落式數據集 14
1.5.2 多段落式數據集 19
1.5.3 文本庫式數據集 22
1.6 機器閱讀理解數據的生成 23
1.6.1 數據集的生成 23
1.6.2 標準答案的生成 24
1.6.3 如何設計高質量的數據集 26
1.7 本章小結 30
第2章 自然語言處理基礎 31
2.1 文本分詞 31
2.1.1 中文分詞 32
2.1.2 英文分詞 33
2.1.3 位元組對編碼BPE 35
2.2 語言處理的基石:詞向量 37
2.2.1 詞的向量化 37
2.2.2 Word2vec詞向量 39
2.3 命名實體和詞性標註 42
2.3.1 命名實體識別 42
2.3.2 詞性標註 44
2.4 語言模型 48
2.4.1 N元模型 49
2.4.2 語言模型的評測 52
2.5 本章小結 53
第3章 自然語言處理中的深度學習 54
3.1 從詞向量到文本向量 54
3.1.1 利用RNN的最終狀態 55
3.1.2 利用CNN和池化 55
3.1.3 利用含參加權和 58
3.2 讓計算機做選擇題:自然語言理解 59
3.2.1 網路模型 59
3.2.2 實戰:文本分類 60
3.3 讓計算機寫文章:自然語言生成 62
3.3.1 網路模型 62
3.3.2 實戰:生成文本 63
3.3.3 集束搜尋 65
3.4 讓計算機專心致志:注意力機制 67
3.4.1 注意力機制的計算 68
3.4.2 實戰:利用內積函式計算注意力 69
3.4.3 序列到序列模型 69
3.5 本章小結 70
第二篇 架構篇
第4章 機器閱讀理解模型架構 72
4.1 總體架構 72
4.2 編碼層 74
4.2.1 詞表的建立和初始化 74
4.2.2 字元編碼 75
4.2.3 上下文編碼 77
4.3 互動層 79
4.3.1 互注意力 79
4.3.2 自注意力 81
4.3.3 上下文編碼 82
4.4 輸出層 83
4.4.1 構造問題的向量表示 83
4.4.2 多項選擇式答案生成 84
4.4.3 區間式答案生成 85
4.4.4 自由式答案生成 87
4.5 本章小結 93
第5章 常見機器閱讀理解模型 94
5.1 雙向注意力流模型 94
5.1.1 編碼層 94
5.1.2 互動層 95
5.1.3 輸出層 98
5.2 R-net 99
5.2.1 基於注意力的門控循環神經網路 100
5.2.2 網路架構 101
5.3 融合網路 104
5.3.1 單詞歷史 104
5.3.2 全關注注意力 105
5.3.3 總體架構 106
5.4 關鍵字檢索與閱讀模型 109
5.4.1 檢索器 110
5.4.2 閱讀器 112
5.5 本章小結 115
第6章 預訓練模型 116
6.1 預訓練模型和遷移學習 116
6.2 基於翻譯的預訓練模型CoVe 118
6.2.1 機器翻譯模型 119
6.2.2 上下文編碼 120
6.3 基於語言模型的預訓練模型ELMo 121
6.3.1 雙向語言模型 122
6.3.2 ELMo的使用 123
6.4 生成式預訓練模型GPT 125
6.4.1 Transformer 125
6.4.2 GPT模型架構 129
6.4.3 GPT使用方法 129
6.5 劃時代的預訓練模型BERT 131
6.5.1 雙向語言模型 131
6.5.2 判斷下一段文本 132
6.5.3 BERT預訓練細節 133
6.5.4 BERT在目標任務中的使用 133
6.5.5 實戰:在區間答案型機器閱讀理解任務中微調BERT 137
6.6 本章小結 138
第三篇 實戰篇
第7章 機器閱讀理解模型SDNet代碼解析 140
7.1 多輪對話式閱讀理解模型SDNet 140
7.1.1 編碼層 141
7.1.2 互動層與輸出層 142
7.2 SDNet代碼介紹與運行指南 143
7.2.1 代碼介紹 143
7.2.2 運行指南 143
7.2.3 配置檔案 145
7.3 預處理程式 147
7.3.1 初始化函式 148
7.3.2 預處理函式 149
7.4 訓練程式 154
7.4.1 訓練基類 154
7.4.2 訓練子類 155
7.5 批次數據產生器 159
7.5.1 掩碼 160
7.5.2 準備BERT數據 164
7.6 SDNet模型 166
7.6.1 網路模型類 166
7.6.2 計算層 171
7.6.3 生成BERT編碼 177
7.7 本章小結 178
第8章 機器閱讀理解的套用與未來 179
8.1 智慧型客服 179
8.1.1 建立產品客服知識庫 180
8.1.2 理解用戶意圖 181
8.1.3 答案生成 183
8.1.4 智慧型客服中的其他模組 183
8.2 搜尋引擎 184
8.2.1 搜尋引擎技術 185
8.2.2 搜尋引擎中的機器閱讀理解 187
8.2.3 未來與挑戰 188
8.3 醫療衛生 189
8.4 法律 190
8.4.1 智慧型審判 191
8.4.2 確定適用條款 192
8.5 金融 193
8.5.1 股價預測 193
8.5.2 新聞摘要 195
8.6 教育 196
8.7 機器閱讀理解的未來 196
8.7.1 機器閱讀理解研究面臨的挑戰 197
8.7.2 機器閱讀理解的產業化 202
8.8 本章小結 203
附錄A 機器學習基礎 205
附錄B 深度學習基礎 208

作者簡介

朱晨光
微軟公司自然語言處理高級研究員、史丹福大學計算機系博士。負責自然語言處理研究與開發、對話機器人的語義理解、機器閱讀理解研究等,精通人工智慧、深度學習與自然語言處理,尤其擅長機器閱讀理解、文本總結、對話處理等方向。帶領團隊負責客服對話機器人的語義理解與分析,進行機器閱讀理解研究,在史丹福大學舉辦的SQuAD 1.0機器閱讀理解競賽中獲得全球名,在CoQA對話閱讀理解競賽中成績超過人類水平並獲得名。在人工智慧和自然語言處理會議ICLR、ACL、EMNLP、NAACL、ICLR中發表多篇文章。

相關詞條

熱門詞條

聯絡我們