基於深度學習的自然語言處理(書籍)

基於深度學習的自然語言處理(書籍)

本詞條是多義詞,共3個義項
更多義項 ▼ 收起列表 ▲

《基於深度學習的自然語言處理》是2020年機械工業出版社出版的圖書,作者是[美] 卡蒂克·雷迪·博卡(Karthiek,Reddy,Bokka),[印] 舒班吉·霍拉(Shubhangi Hora),[德] 塔努吉·賈因(Tanuj Jain)。

基本介紹

  • 中文名:基於深度學習的自然語言處理
  • 作者:[美] 卡蒂克·雷迪·博卡(Karthiek,Reddy,Bokka),[印] 舒班吉·霍拉(Shubhangi Hora),[德] 塔努吉·賈因(Tanuj Jain)
  • 出版社:機械工業出版社
  • ISBN:9787111653578
內容簡介,圖書目錄,

內容簡介

將深度學習方法套用於各種自然語言處理任務,可以讓你的算法在速度和準確性方面提升到一個全新的水平。本書首先介紹自然語言處理領域的基本構件,接著介紹使用最先進的神經網路模型可以解決的問題。深入研究各種神經網路架構及其特定的套用領域將有助於你理解如何選擇最佳模型來滿足你的需求。隨著學習的深入,你將學到卷積神經網路、循環神經網路、遞歸神經網路以及長短期記憶網路。在後面的章節中,你將能夠使用自然語言處理技術(如注意力機制模型和集束搜尋)開發應用程式。
學完本書,你不僅能具備自然語言處理的基礎知識,還能選擇適合的文本預處理和神經網路模型來解決一些自然語言處理的問題。
本書能幫助你:
了解深度學習問題的各種預處理技術。
用word2vec和GloVe構建文本的矢量表示。
使用Apache OpenNLP創建命名實體識別器和詞性標註器。
在Keras中構建機器翻譯模型。
用LSTM開發文本生成應用程式。
使用注意力模型構建觸發詞檢測應用程式。

圖書目錄

譯者序
前言
第1章 自然語言處理 1
1.1 本章概覽 1
1.2 自然語言處理的基礎知識 1
1.3 自然語言處理的能力 3
1.4 自然語言處理中的套用 4
1.4.1 文本預處理 5
1.4.2 文本預處理技術 6
1.5 詞嵌入 13
1.6 本章小結 22
第2章 自然語言處理的套用 23
2.1 本章概覽 23
2.2 詞性標註 24
2.2.1 詞性 24
2.2.2 詞性標註器 25
2.3 詞性標註的套用 27
2.4 分塊 33
2.5 加縫 35
2.6 命名實體識別 37
2.6.1 命名實體 37
2.6.2 命名實體識別器 38
2.6.3 命名實體識別的套用 38
2.6.4 命名實體識別器類型 39
2.7 本章小結 43
第3章 神經網路 44
3.1 本章概覽 44
3.1.1 深度學習簡介 44
3.1.2 機器學習與深度學習的比較 45
3.2 神經網路 46
3.3 訓練神經網路 50
3.3.1 計算權重 51
3.3.2 損失函式 52
3.3.3 梯度下降算法 53
3.3.4 反向傳播 56
3.4 神經網路的設計及其套用 57
3.4.1 有監督神經網路 57
3.4.2 無監督神經網路 57
3.5 部署模型即服務的基礎 60
3.6 本章小結 62
第4章 卷積神經網路 63
4.1 本章概覽 63
4.2 理解CNN的架構 65
4.2.1 特徵提取 66
4.2.2 隨機失活 68
4.2.3 卷積神經網路的分類 69
4.3 訓練CNN 71
4.4 CNN的套用領域 77
4.5 本章小結 80
第5章 循環神經網路 81
5.1 本章概覽 81
5.2 神經網路的早期版本 82
5.3 RNN 84
5.3.1 RNN架構 87
5.3.2 BPTT 88
5.4 更新和梯度流 90
5.4.1 調整權重矩陣Wy 90
5.4.2 調整權重矩陣Ws 90
5.4.3 關於更新Wx 92
5.5 梯度 94
5.5.1 梯度爆炸 94
5.5.2 梯度消失 94
5.5.3 Keras實現RNN 95
5.5.4 有狀態與無狀態 99
5.6 本章小結 102
第6章 門控循環單元 103
6.1 本章概覽 103
6.2 簡單RNN的缺點 104
6.3 門控循環單元 106
6.3.1 門的類型 108
6.3.2 更新門 108
6.3.3 重置門 110
6.3.4 候選激活函式 111
6.3.5 GRU變體 113
6.4 基於GRU的情感分析 114
6.5 本章小結 123
第7章 長短期記憶網路 124
7.1 本章概覽 124
7.1.1 LSTM 124
7.1.2 遺忘門 126
7.2 輸入門和候選單元狀態 128
7.3 輸出門和當前激活 132
7.4 神經語言翻譯 139
7.5 本章小結 150
第8章 自然語言處理前沿 151
8.1 本章概覽 151
8.1.1 注意力機制 152
8.1.2 注意力機制模型 153
8.1.3 使用注意力機制的數據標準化 154
8.1.4 編碼器 155
8.1.5 解碼器 155
8.1.6 注意力機制 155
8.1.7 α的計算 156
8.2 其他架構和發展狀況 167
8.2.1 transformer 168
8.2.2 BERT 168
8.2.3 Open AI GPT-2 168
8.3 本章小結 169
第9章 組織中的實際NLP項目工作流 170
9.1 本章概覽 170
9.1.1 機器學習產品開發的一般工作流 170
9.1.2 演示工作流 171
9.1.3 研究工作流 171
9.1.4 面向生產的工作流 172
9.2 問題定義 173
9.3 數據採集 173
9.4 谷歌Colab 174
9.5 Flask 180
9.6 部署 182
9.6.1 對Flask網路應用程式進行更改 183
9.6.2 使用Docker將Flask網路應用程式包裝到容器中 183
9.6.3 將容器託管在亞馬遜網路服務EC2實例上 185
9.6.4 改進 190
9.7 本章小結 190
附錄 191

相關詞條

熱門詞條

聯絡我們