深度學習實戰(清華大學出版社2018年01月01日出版的書籍)

深度學習實戰(清華大學出版社2018年01月01日出版的書籍)

本詞條是多義詞,共3個義項
更多義項 ▼ 收起列表 ▲

《深度學習實戰》是清華大學出版社2018年01月01日出版的書籍,作者是楊雲、杜飛。

基本介紹

  • 中文名:深度學習實戰
  • 作者:楊雲、杜飛
  • 出版社:清華大學出版社
  • 出版時間:2018年01月01日
  • 定價:69 元
  • ISBN:9787302491026
內容簡介,圖書目錄,

內容簡介

深度學習為人工智慧帶來了巨大突破,也成為機器學習領域一顆閃耀的新星。雖然相關學習資料豐富,但大部分內容較為龐雜且難以理解,並對初學者的相關理論知識與實踐能力有較高的要求,這使得大部分想進入這一領域的初學者望而卻步。本書去繁化簡地對深度學習的理論知識進行了梳理,並對算法實現做出了淺顯易懂的講解,適合初學者進行學習。

圖書目錄

第1章深度學習的發展介紹 1
1.1如何閱讀本書 3
1.2深度學習沉浮史 3
1.2.1模擬生物大腦的瘋狂遠古時代 4
1.2.2聯結主義近代 5
1.2.3百花齊放,層次結構主導,模型巨大的當代 6
1.3Python簡易教程 7
1.3.1Anaconda搭建 7
1.3.2IPythonNotebook使用 7
1.3.3Python基本用法 8
1.3.4NumPy 15
1.3.5Matplotlib 23
1.4參考文獻 25
第2章機器學習快速入門 27
2.1學習算法 28
2.1.1學習任務 29
2.1.2性能度量 30
2.1.3學習經驗 32
2.2代價函式 33
2.2.1均方誤差函式 33
2.2.2極大似然估計 34
2.3梯度下降法 36
2.3.1批量梯度下降法 38
2.4過擬合與欠擬合 40
2.4.1沒免費午餐理論 42
2.4.2正則化 43
2.5超參數與驗證集 44
2.6Softmax編碼實戰 46
2.6.1編碼說明 49
2.6.2熟練使用CIFAR-10數據集 50
2.6.3顯式循環計算損失函式及其梯度 53
2.6.4向量化表達式計算損失函式及其梯度 56
2.6.5最小批量梯度下降算法訓練Softmax分類器 57
2.6.6使用驗證數據選擇超參數 61
2.7參考代碼 68
2.8參考文獻 70
3.1神經元 73
3.1.1Sigmoid神經元 74
3.1.2Tanh神經元 75
3.1.3ReLU神經元 76
3.2前饋神經網路 80
3.2.1輸出層單元 80
3.2.2隱藏層單元 80
3.2.3網路結構設計 81
3.3BP算法 82
3.4深度學習編碼實戰上 86
3.4.1實現仿射傳播 88
3.4.2實現ReLU傳播 91
3.4.3組合單層神經元 93
3.4.4實現淺層神經網路 96
3.4.5實現深層全連線網路 101
3.5參考代碼 109
3.6參考文獻 113
第4章深度學習正則化 115
4.1參數範數懲罰 116
4.1.1L2參數正則化 118
4.1.2L1正則化 119
4.2參數綁定與參數共享 120
4.3噪聲注入與數據擴充 120
4.4稀疏表征 122
4.5早停 123
4.6Dropout 126
4.6.1個體與集成 126
4.6.2Dropout 127
4.7深度學習編碼實戰中 129
4.7.1Dropout傳播 131
4.7.2組合Dropout傳播層 134
4.7.3Dropout神經網路 136
4.7.4解耦訓練器trainer 138
4.7.5解耦更新器updater 143
4.7.6正則化實驗 145
4.8參考代碼 148
4.9參考文獻 150
第5章深度學習最佳化 152
5.1神經網路最佳化困難 153
5.1.1局部最優 153
5.1.2鞍點 154
5.1.3梯度懸崖 154
5.1.4梯度消失或梯度爆炸 155
5.1.5梯度不精確 156
5.1.6最佳化理論的局限性 156
5.2隨機梯度下降 156
5.3動量學習法 158
5.4AdaGrad和RMSProp 159
5.5Adam 160
5.6參數初始化策略 161
5.7批量歸一化 163
5.7.1BN算法詳解 163
5.7.2BN傳播詳解 165
5.8深度學習編碼實戰下 166
5.8.1Momentum 167
5.8.2RMSProp 171
5.8.3Adam 172
5.8.4更新規則比較 174
5.8.5BN前向傳播 176
5.8.6BN反向傳播 180
5.8.7使用BN的全連線網路 182
5.8.8BN算法與權重標準差比較 188
5.9參考代碼 191
5.10參考文獻 195
6.1卷積操作 197
6.2卷積的意義 198
6.2.1稀疏連線 199
6.2.2參數共享 200
6.3池化操作 201
6.4設計卷積神經網路 204
6.4.1跨步卷積 204
6.4.2零填充 205
6.4.3非共享卷積 206
6.4.4平鋪卷積 207
6.5卷積網路編碼練習 208
6.5.1卷積前向傳播 209
6.5.2卷積反向傳播 212
6.5.3最大池化前向傳播 215
6.5.4最大池化反向傳播 218
6.5.5向量化執行 220
6.5.6組合完整卷積層 223
6.5.7淺層卷積網路 224
6.5.8空間批量歸一化 229
6.6參考代碼 233
6.7參考文獻 237
第7章循環神經網路 238
7.1循環神經網路 239
7.1.1循環神經元展開 239
7.1.2循環網路訓練 240
7.2循環神經網路設計 242
7.2.1雙向循環網路結構 242
7.2.2編碼-解碼網路結構 243
7.2.3深度循環網路結構 244
7.3門控循環神經網路 245
7.3.1LSTM 246
7.3.2門控循環單元 249
7.4RNN編程練習 250
7.4.1RNN單步傳播 252
7.4.2RNN時序傳播 255
7.4.3詞嵌入 258
7.4.4RNN輸出層 261
7.4.5時序Softmax損失 262
7.4.6RNN圖片說明任務 264
7.5LSTM編程練習 269
7.5.1LSTM單步傳播 269
7.5.2LSTM時序傳播 273
7.5.3LSTM實現圖片說明任務 276
7.6參考代碼 278
7.6.1RNN參考代碼 278
7.6.2LSTM參考代碼 282
7.7參考文獻 285
第8章TensorFlow快速入門 287
8.1TensorFlow介紹 288
8.2TensorFlow1.0安裝指南 289
8.2.1雙版本切換Anaconda 289
8.2.2安裝CUDA8.0 291
8.2.3安裝cuDNN 292
8.2.4安裝TensorFlow 293
8.2.5驗證安裝 294
8.3TensorFlow基礎 295
8.3.1Tensor 295
8.3.2TensorFlow核心API教程 296
8.3.3tf.trainAPI 299
8.3.4tf.contrib.learn 301
8.4TensorFlow構造CNN 305
8.4.1構建Softmax模型 305
8.4.2使用TensorFlow訓練模型 307
8.4.3使用TensorFlow評估模型 308
8.4.4使用TensorFlow構建卷積神經網路 308
8.5TensorBoard快速入門 311
8.5.1TensorBoard可視化學習 312
8.5.2計算圖可視化 316

相關詞條

熱門詞條

聯絡我們