自然語言處理入門(2024年清華大學出版社出版的圖書)

自然語言處理入門(2024年清華大學出版社出版的圖書)

本詞條是多義詞,共2個義項
更多義項 ▼ 收起列表 ▲

《自然語言處理入門》是2024年清華大學出版社出版的圖書,作者是李洋、李實。

基本介紹

  • 中文名:自然語言處理入門
  • 作者:李洋、李實
  • 出版時間:2024年1月1日
  • 出版社:清華大學出版社
  • ISBN:9787302644484 
  • 定價:49 元
內容簡介,圖書目錄,

內容簡介

自然語言處理(NLP)的目標是使計算機能夠像人類一樣理解語言。近年來自然語言處理作為一門學科發展迅速,得到了越來越廣泛的套用。本書從基本概念出發,對於自然語言基礎任務進行介紹:中文分詞、關鍵字抽取、詞向量、文本分類、命名實體識別和關係抽取。對自然語言處理當前熱門套用任務如知識圖譜、閱讀理解、摘要和對話等進行介紹。全書內容由淺入深,先從基本概念,再引出簡單套用實例。

圖書目錄

目錄
第1章中文分詞
1.1中文分詞中的基本問題
1.1.1中文分詞規範問題
1.1.2歧義切分問題
1.1.3未登錄詞識別問題
1.2基於詞表的分詞算法
1.2.1正向最大匹配算法
1.2.2逆向最大匹配算法
1.2.3雙向最大匹配算法
1.3基於統計模型的分詞算法
1.4基於序列標註的分詞算法
1.4.1基於HMM的分詞方法
1.4.2基於CRF的分詞方法
1.4.3基於BiLSTMCRF的中文分詞方法
參考文獻
第2章命名實體識別
2.1基於CRF的命名實體識別
2.1.1CRF基本概念
2.1.2命名實體識別任務
2.2基於BiLSTMCRF的命名實體識別
2.2.1RNN
2.2.2LSTM網路
2.2.3雙向LSTM網路
2.2.4BiLSTMCRF
2.3注意力機制
參考文獻
第3章關係抽取
3.1實體關係抽取定義
3.2實體關係抽取框架
3.3評測方法
3.4有監督實體關係抽取方法
3.5半監督實體關係抽取方法
3.6遠程監督實體關係抽取方法
參考文獻
第4章詞向量技術
4.1OneHot詞向量技術
4.2Word2Vec詞向量技術
4.2.1CBOW模型
4.2.2SkipGram模型
4.2.3最佳化方法
4.3BERT詞向量嵌入
4.3.1注意力機制
4.3.2Transformer
4.3.3BERT
4.3.4基於BERT的衍生模型
參考文獻
第5章關鍵字提取
5.1TextRank關鍵字提取算法
5.1.1基於圖的排序算法
5.1.2基於圖的排序算法的拓展運用
5.1.3基於圖的排序算法在關鍵字提取中的運用
5.1.4TextRank算法
5.2TFIDF關鍵字提取算法
5.3LDA與PLSA關鍵字提取算法
5.3.1相關基礎知識
5.3.2PLSA模型
5.3.3LDA模型
參考文獻
第6章文本分類
6.1文本分類概述
6.2文本表示
6.2.1離散式表示
6.2.2分散式表示
6.3文本特徵提取
6.3.1基於DF的特徵提取法
6.3.2信息增益法
6.3.3χ2統計量
6.3.4互信息法
6.4特徵權重計算方法
6.5分類器構建
6.5.1樸素貝葉斯分類器
6.5.2SVM分類器
6.5.3基於神經網路的分類器
6.6文本分類評價指標
參考文獻
第7章知識圖譜
7.1知識圖譜概述
7.1.1知識圖譜的介紹
7.1.2知識圖譜基本概念
7.1.3知識表示與存儲
7.2知識圖譜構建
7.2.1知識抽取
7.2.2知識融合
7.2.3知識加工
7.2.4知識更新
7.3知識圖譜補全
7.3.1知識圖譜補全簡介
7.3.2表示學習的相關理論
7.3.3知識圖譜補全(表示學習)
7.4知識圖譜套用
7.4.1通用和領域知識圖譜
7.4.2語義集成
7.4.3語義搜尋
7.4.4基於知識的問答
參考文獻
第8章機器閱讀理解
8.1機器閱讀理解概述
8.1.1機器閱讀理解任務
8.1.2機器閱讀理解發展
8.2數據集以及測評方式
8.2.1數據集
8.2.2測評方式
8.3模型
8.3.1模型架構
8.3.2預訓練模型
8.4套用以及未來
8.4.1智慧型客服
8.4.2搜尋引擎
8.4.3教育
8.4.4機器閱讀理解面臨的挑戰
參考文獻
第9章自動文摘和文本生成
9.1自動文摘概述
9.1.1自動文摘任務
9.1.2自動文摘發展及分類
9.2生成式摘要
9.2.1問題與方法
9.2.2文摘評測
9.3自動文本生成
9.3.1自動文本生成概述
9.3.2基於主題的文本生成
9.3.3自動文本生成技術評測
參考文獻
第10章對話系統
10.1問題理解
10.1.1意圖識別
10.1.2槽填充
10.2對話狀態管理
10.2.1對話狀態跟蹤
10.2.2對話策略
10.3答句生成
參考文獻

相關詞條

熱門詞條

聯絡我們