深度學習基礎教程

深度學習基礎教程

《深度學習基礎教程》是2018年機械工業出版社出版的圖書,作者是阿努拉格.巴德瓦傑。

基本介紹

  • 書名:深度學習基礎教程
  • 作者:阿努拉格.巴德瓦傑
  • ISBN:9787111608455
  • 定價:59元
  • 出版社:機械工業出版社
  • 出版時間:2018年10月
  • 裝幀:平裝
  • 開本:16開
內容簡介,作者簡介,圖書目錄,

內容簡介

《深度學習基礎教程》是真正適合深度學習初學者的入門書籍,全書沒有任何複雜的數學推導。《深度學習基礎教程》首先介紹了深度學習的優勢和面臨的挑戰、深度學習採用深層架構的動機、學習深度學習需要的數學知識和硬體知識以及深度學習常用的軟體框架。然後對多層感知機、卷積神經網路(CNN)、受限玻耳茲曼機(RBM)、循環神經網路(RNN)及其變體—長短時記憶(LSTM)網檔歡達項絡進行了詳細介紹,並且以獨立章節重點闡述了CNN在計算機視覺中的套用、RNN在自然語言處理中的套用以及深度學習在多模態學習領域中的套用。隨後,本書介紹了深度強化學習的基本知識,給出了套用深度學習技淋熱少術需要的許多實用技巧並概述了深度學習的一些新方向和新套用。

作者簡介

楊偉博士,河南大學計算機與信息工程學院副教授,研究領域為機器學習、深度學習、圖像處理。 李征博士,河南大學計算機與信息工程學院副教授,研究領域為Web服務發現與推薦、機器學習贈婆台、移動大數據。

圖書目錄

譯者序
原書前言
第 1章 為什麼進行深度學習 // 1
1.1 什麼是人工智慧和深度學習 // 1
1.2 深度學習的歷史及其興起 // 2
1.3 為什麼進行深度學習 // 7
1.3.1 相比於傳統淺層方法的優勢 // 7
1.3.2 深度學習的影響 //8
1.4 深層架構的動機 // 9
1.4.1 神經的觀點 // 10
1.4.2 特徵表示的觀點 // 10
1.5 套用 //14
1.5.1 盈利性套用 // 14
1.5.2 成功案例 // 14
1.5.3 面向企業的深度學民捆符定滲習 // 19
1.6 未來的潛力和挑戰 // 20
1.7 小結 //21
第 2章 為深度學習做準備 // 22
2.1 線性代數的基礎知識 // 22
2.1.1 數據表示 // 22
2.1.2 數據操作 // 23
2.1.3 矩陣屬性 // 24
2.2 使用GPU進行深度學習 // 24
2.2.1 深度學習硬體指南 // 26
2.3 深度學習軟體框架 // 27
2.3.1 TensorFlow // 27
2.3.2 Caffe // 27
2.3.3 MXNet // 28
2.3.4 Torch // 28
2.3.5 Theano // 28
2.3.6 CNTK // 29
2.3.7 Keras // 29
2.3.8 框架比較 // 29
2.4 基本亞馬遜網路服務的深度學習朽諒腿開發環境配置 // 30
2.4.1 從零開始配置 // 30
2.4.2 基於Docker的配置 // 33
2.5 小結 //34
第紙戀套照 3章 神經網路入門 // 35
3.1 多層感知機 // 35
3.1.1 輸入層 // 36
3.1.2 輸出層 // 36
3.1.3 隱藏層 // 36
3.1.4 激活函式 // 36
3.2 如何進行網路學習 // 39
3.2.1 權值初始化 // 39
3.2.2 前向傳播 // 39
3.2.3 反向傳播 // 40
3.2.4 梯度消失與爆炸 // 42
3.2.5 最佳化算法 // 42
3.2.6 正則化 // 43
3.3 深度學習模型 // 43
3.3.1 卷積神經網路 // 43
3.3.2 受限玻耳茲曼機 // 47
3.3.3 循環神經網路(RNN/LSTM網路)// 50
3.3.4 RNN中的單元及其展開 // 51
3.3.5 通過時間的反向傳播 // 51
3.3.6 梯度消失與 LSTM網路 // 51
3.3.7 LSTM網路中的單元和網關 // 52
3.4 套用示例 //53
3.4.1 TensorFlow設定與關鍵概念 // 53
3.4.2 手寫數字識別 // 54
3.5 小結 //57
第 4章 計算機視覺中的深度學習 // 58
4.1 卷積神經網路的起源 // 58
4.2 卷積神經網路 // 59
4.2.1 數據變換 // 61
4.2.2 網路層 // 62
4.2.3 網路初始化 // 65
4.2.4 正則化 // 66
4.2.5 損失函式 // 67
4.2.6 模型可視化 // 68
4.2.7 手寫數字分類示例 // 69
4.3 微調卷積神經網路 // 71
4.4 主流的卷積神經網路架構 // 72
4.4.1 AlexNet // 72
4.4.2 VGG // 72
4.4.3 GoogLeNet // 73
4.4.4 ResNet // 73
4.5 小結 //74
第 5章 自然語言處理中的向量表示 // 75
5.1 傳統的自然語言處理 // 75
5.1.1 BoW // 75
5.1.2 帶權的 tf-idf // 76
5.2 基於深度學習的自然語言處理 // 77
5.2.1 動機及分散式表示法 // 77
5.2.2 詞嵌入 // 78
5.2.3 Word2Vec // 81
5.2.4 了解 GloVe // 92
5.2.5 FastText // 92
5.3 套用 //93
5.3.1 使用示例 // 93
5.3.2 微調 // 93
5.4 小結 //94
第 6章 高級自然語言處理 // 95
6.1 面向文本的深度學習 // 95
6.1.1 神經網路的局限性 // 95
6.2 循環神經網路 // 96
6.2.1 RNN架構 // 97
6.2.2 基本的RNN模型 // 98
6.2.3 訓練RNN很難 // 98
6.3 LSTM網路 //99
6.3.1 使用TensorFlow實現LSTM網路 // 101
6.4 套用 //103
6.4.1 語言建模 // 103
6.4.2 序列標註 // 104
6.4.3 機器翻譯 // 106
6.4.4 聊天機器人 // 109
6.5 小結 //110
第 7章 多模態 // 111
7.1 什麼是多模態學習 // 111
7.2 多模態學習的挑戰 // 111
7.2.1 模態表示 // 112
7.2.2 模態轉換 // 112
7.2.3 模態對齊 // 112
7.2.4 模態融合 // 113
7.2.5 協同學習 // 113
7.3 圖像標註生成 //113
7.3.1 show&tell算法 // 114
7.3.2 其他類型的方法 // 116
7.3.3 數據集 // 117
7.3.4 評估方法 // 119
7.3.5 注意力模型 // 121
7.4 視覺問答 //125
7.5 基於多源的自動駕駛 //127
7.6 小結 //130
第 8章 深度強化學習 // 131
8.1 什麼是強化學習 // 131
8.1.1 問題設定 // 132
8.1.2 基於值函式學習的算法 // 132
8.1.3 基於策略搜尋的算法 //134
8.1.4 基於Actor-Critic的算法 // 134
8.2 深度強化學習 // 135
8.2.1 深度Q網路(DQN)// 135
8.2.2 雙DQN // 137
8.2.3 競爭DQN // 138
8.3 強化學習實現 // 138
8.3.1 簡單的強化學習示例 // 138
8.3.2 以Q-learning為例的強化學習 // 139
8.4 小結 //141
第 9章 深度學習的技巧 // 142
9.1 處理數據 //142
9.1.1 數據清理 // 142
9.1.2 數據擴充 // 142
9.1.3 數據歸一化 // 143
9.2 訓練技巧 // 143
9.2.1 權值初始化 // 143
9.2.2 最佳化 // 144
9.2.3 損失函式選擇 // 146
9.2.4 防止過擬合 // 147
9.2.5 微調 // 148
9.3 模型壓縮 // 149
9.4 小結 // 152
第 10章 深度學習的發展趨勢 // 153
10.1 深度學習的最新模型 // 153
10.1.1 生成對抗網路 // 153
10.1.2 Capsule網路 // 154
10.2 深度學習的新套用 // 155
10.2.1 基因組學 // 155
10.2.2 醫療預測 // 157
10.2.3 臨床影像學 // 159
10.2.4 唇語 // 160
10.2.5 視覺推理 // 161
10.2.6 代碼合成 // 162
10.3 小結 // 164
3.1 多層感知機 // 35
3.1.1 輸入層 // 36
3.1.2 輸出層 // 36
3.1.3 隱藏層 // 36
3.1.4 激活函式 // 36
3.2 如何進行網路學習 // 39
3.2.1 權值初始化 // 39
3.2.2 前向傳播 // 39
3.2.3 反向傳播 // 40
3.2.4 梯度消失與爆炸 // 42
3.2.5 最佳化算法 // 42
3.2.6 正則化 // 43
3.3 深度學習模型 // 43
3.3.1 卷積神經網路 // 43
3.3.2 受限玻耳茲曼機 // 47
3.3.3 循環神經網路(RNN/LSTM網路)// 50
3.3.4 RNN中的單元及其展開 // 51
3.3.5 通過時間的反向傳播 // 51
3.3.6 梯度消失與 LSTM網路 // 51
3.3.7 LSTM網路中的單元和網關 // 52
3.4 套用示例 //53
3.4.1 TensorFlow設定與關鍵概念 // 53
3.4.2 手寫數字識別 // 54
3.5 小結 //57
第 4章 計算機視覺中的深度學習 // 58
4.1 卷積神經網路的起源 // 58
4.2 卷積神經網路 // 59
4.2.1 數據變換 // 61
4.2.2 網路層 // 62
4.2.3 網路初始化 // 65
4.2.4 正則化 // 66
4.2.5 損失函式 // 67
4.2.6 模型可視化 // 68
4.2.7 手寫數字分類示例 // 69
4.3 微調卷積神經網路 // 71
4.4 主流的卷積神經網路架構 // 72
4.4.1 AlexNet // 72
4.4.2 VGG // 72
4.4.3 GoogLeNet // 73
4.4.4 ResNet // 73
4.5 小結 //74
第 5章 自然語言處理中的向量表示 // 75
5.1 傳統的自然語言處理 // 75
5.1.1 BoW // 75
5.1.2 帶權的 tf-idf // 76
5.2 基於深度學習的自然語言處理 // 77
5.2.1 動機及分散式表示法 // 77
5.2.2 詞嵌入 // 78
5.2.3 Word2Vec // 81
5.2.4 了解 GloVe // 92
5.2.5 FastText // 92
5.3 套用 //93
5.3.1 使用示例 // 93
5.3.2 微調 // 93
5.4 小結 //94
第 6章 高級自然語言處理 // 95
6.1 面向文本的深度學習 // 95
6.1.1 神經網路的局限性 // 95
6.2 循環神經網路 // 96
6.2.1 RNN架構 // 97
6.2.2 基本的RNN模型 // 98
6.2.3 訓練RNN很難 // 98
6.3 LSTM網路 //99
6.3.1 使用TensorFlow實現LSTM網路 // 101
6.4 套用 //103
6.4.1 語言建模 // 103
6.4.2 序列標註 // 104
6.4.3 機器翻譯 // 106
6.4.4 聊天機器人 // 109
6.5 小結 //110
第 7章 多模態 // 111
7.1 什麼是多模態學習 // 111
7.2 多模態學習的挑戰 // 111
7.2.1 模態表示 // 112
7.2.2 模態轉換 // 112
7.2.3 模態對齊 // 112
7.2.4 模態融合 // 113
7.2.5 協同學習 // 113
7.3 圖像標註生成 //113
7.3.1 show&tell算法 // 114
7.3.2 其他類型的方法 // 116
7.3.3 數據集 // 117
7.3.4 評估方法 // 119
7.3.5 注意力模型 // 121
7.4 視覺問答 //125
7.5 基於多源的自動駕駛 //127
7.6 小結 //130
第 8章 深度強化學習 // 131
8.1 什麼是強化學習 // 131
8.1.1 問題設定 // 132
8.1.2 基於值函式學習的算法 // 132
8.1.3 基於策略搜尋的算法 //134
8.1.4 基於Actor-Critic的算法 // 134
8.2 深度強化學習 // 135
8.2.1 深度Q網路(DQN)// 135
8.2.2 雙DQN // 137
8.2.3 競爭DQN // 138
8.3 強化學習實現 // 138
8.3.1 簡單的強化學習示例 // 138
8.3.2 以Q-learning為例的強化學習 // 139
8.4 小結 //141
第 9章 深度學習的技巧 // 142
9.1 處理數據 //142
9.1.1 數據清理 // 142
9.1.2 數據擴充 // 142
9.1.3 數據歸一化 // 143
9.2 訓練技巧 // 143
9.2.1 權值初始化 // 143
9.2.2 最佳化 // 144
9.2.3 損失函式選擇 // 146
9.2.4 防止過擬合 // 147
9.2.5 微調 // 148
9.3 模型壓縮 // 149
9.4 小結 // 152
第 10章 深度學習的發展趨勢 // 153
10.1 深度學習的最新模型 // 153
10.1.1 生成對抗網路 // 153
10.1.2 Capsule網路 // 154
10.2 深度學習的新套用 // 155
10.2.1 基因組學 // 155
10.2.2 醫療預測 // 157
10.2.3 臨床影像學 // 159
10.2.4 唇語 // 160
10.2.5 視覺推理 // 161
10.2.6 代碼合成 // 162
10.3 小結 // 164

相關詞條

熱門詞條

聯絡我們