深度學習基礎與工程實踐

深度學習基礎與工程實踐

《深度學習基礎與工程實踐》是2021年電子工業出版社出版的圖書,作者是郭澤文。

基本介紹

  • 中文名:深度學習基礎與工程實踐
  • 作者:郭澤文
  • 出版時間:2021年9月
  • 出版社:電子工業出版社 
  • 頁數:89 頁
  • ISBN:9787121419225
  • 定價:300 元
  • 開本:16 開
內容簡介,內容提要,圖書目錄,

內容簡介

以工程實踐為主線,基於TensorFlow 2.0軟體框架詳細介紹了深度學習的工作原理和方法,並以實際代碼為例

內容提要

本書以工程實踐為主線,基於TensorFlow 2.0軟體框架詳細介紹了深度學習的工作原理和方法,並以實際代碼為例,剖析了構建神經網路模型的流程、全連線網路的運行原理、卷積神經網路的結構與運行機制、循環神經網路的結構與運行機制,討論了使用Dense、Conv1D、Conv2D、SimpleRNN、LTSM、GRU、Bidirectional等深度學習模型解決計算機視覺、序列問題的方法,並在此基礎上基於具體示例介紹了深度學習的高階實踐。
本書致力於為人工智慧算法工程師及從事人工智慧引擎相關工作的人提供理論與實踐指導,適合對人工智慧及其套用感興趣的讀者閱讀

圖書目錄

第1章 搭建環境
1.1 安裝Anaconda 2
1.2 安裝CUDA及其加速器 3
1.3 安裝TensorFlow 2.0 4
1.4 開發環境——Spyder 6
1.5 可視化分析工具——TensorBoard 7
第2章 機器學習與深度學習
2.1 機器學習 11
2.2 深度學習 13
第3章 構建神經網路模型
3.1 搭建一個全連線網路 17
3.2 確定要解決的問題 19
3.3 準備數據與數據預處理 20
3.3.1 數據集 22
3.3.2 擬合問題初探 23
3.3.3 數據集劃分與數據污染 25
3.3.4 神經網路中的數據表示 26
3.3.5 張量操作 30
3.3.6 數據預處理 32
3.4 構建神經網路 34
3.4.1 構建神經網路的方法 34
3.4.2 理解Sequential Model的構建方法 35
3.4.3 理解layers與layer 37
3.4.4 理解models與model 39
3.4.5 理解Dense 39
3.4.6 激活函式 40
3.5 編譯模型 42
3.5.1 最佳化器 43
3.5.2 損失函式 44
3.5.3 評價指標 46
3.6 訓練模型 47
3.6.1 使用fit方法訓練模型 47
3.6.2 使用fit_generator方法訓練模型 51
3.6.3 使用TensorBoard回調函式訓練模型 52
3.7 測試模型 59
3.7.1 性能評估 59
3.7.2 模型預測 60
3.8 保存模型 62
3.8.1 save方式 62
3.8.2 save_weights方式 63
3.8.3 SavedModel方式 64
3.9 使用模型 64
3.9.1 以save_weights方式保存的模型的載入方法 64
3.9.2 以save方式保存的模型的載入方法 65
3.9.3 以SavedModel方式保存的模型的載入方法 66
3.10 模型的重新訓練與預測 66
3.11 使用模型在新數據上進行推理 69
第4章 全連線網路
4.1 全連線層 72
4.2 使用全連線網路解決文本分類問題 74
4.2.1 基於IMDB數據集的二分類任務 75
4.2.2 基於Reuters數據集的多分類任務 79
4.3 使用全連線網路解決標量回歸問題 82
4.3.1 使用留出驗證集方式訓練模型 86
4.3.2 使用K折交叉驗證方式訓練模型 87
4.4 全連線網路圖片分類問題的最佳化 88
4.4.1 降低模型容量:縮減模型的超參數 90
4.4.2 奧卡姆剃刀原則:正則化模型參數 91
4.4.3 初識隨機失活:Dropout 92
第5章 卷積神經網路
5.1 使用CNN解決MNIST數據集的分類問題 96
5.2 全連線網路面臨的問題 98
5.3 局部相關性與權值共享 100
5.4 構建卷積神經網路 102
5.4.1 CNN與Dense性能比較 102
5.4.2 卷積層 104
5.4.3 池化層 108
5.4.4 打平層 111
5.4.5 卷積神經網路基礎架構 113
5.5 使用Conv1D解決二分類問題 115
5.5.1 EarlyStopping函式:訓練終止 118
5.5.2 ModelCheckpoint函式:動態保存模型 120
5.5.3 再談隨機失活 122
第6章 循環神經網路
6.1 循環神經網路基礎 126
6.1.1 序列 126
6.1.2 序列向量化 126
6.1.3 權值共享 130
6.1.4 全局語義 130
6.1.5 循環神經網路概述 131
6.1.6 循環層 132
6.2 SimpleRNN 133
6.2.1 序列數據的預處理 136
6.2.2 理解SimpleRNN層 137
6.3 LSTM網路 141
6.3.1 短時記憶與遺忘曲線 141
6.3.2 梯度問題 142
6.3.3 門控機制 143
6.3.4 理解LSTM層 144
6.4 GRU 151
6.4.1 LSTM網路面臨的問題 151
6.4.2 門控機制的最佳化方法 152
6.4.3 理解GRU層 152
6.5 雙向循環神經網路 159
6.5.1 雙向LSTM網路 161
6.5.2 雙向GRU 164
6.6 解決循環神經網路的擬合問題 167
6.6.1 通過正則化模型參數解決擬合問題 167
6.6.2 使用隨機失活解決擬合問題 168
第7章 深度學習高階實踐
7.1 函式式API網路模型 173
7.1.1 如何實現層圖共享 177
7.1.2 如何實現模型共享 180
7.1.3 如何實現模型組裝與嵌套 183
7.1.4 如何實現多輸入多輸出模型 185
7.2 混合網路模型 189
7.3 基於Xception架構實現圖片分類任務 191
7.3.1 Xception架構 191
7.3.2 使用image_dataset_from_directory函式構建數據集 194
7.3.3 數據增強技術 199
7.3.4 數據增強器的使用 201
7.3.5 二維深度分離卷積層:SeparableConv2D 202
7.3.6 數據標準化前置與中置 205
7.3.7 編譯與訓練模型 206
7.3.8 在新數據上進行推理 207
7.4 殘差網路在CIFAR10數據集上的實踐 208
7.4.1 CIFAR10數據集 208
7.4.2 深度殘差網路:ResNet 209
7.4.3 基於ResNet構建多分類任務模型 211
7.5 GloVe預訓練詞嵌入實踐 215
7.5.1 從原始檔案構建訓練集 216
7.5.2 解析並載入GloVe 220
7.5.3 在二分類模型中使用詞嵌入矩陣 221
7.5.4 模型的編譯與訓練 222
7.5.5 構建測試集與模型評估 222
7.6 基於預訓練網路VGG16完成圖片分類任務 224
7.6.1 預訓練網路 224
7.6.2 預訓練網路之特徵提取方法 225
7.6.3 預訓練網路之微調模型方法 230
7.7 生成式深度學習實踐 237
7.7.1 基於ResNet50的Deep Dream技術實踐 238
7.7.2 基於VGG19網路的風格遷移實踐 244
7.8 使用自定義回調函式監控模型的行為 253
7.8.1 將約束理論套用於模型調優 254
7.8.2 構建全局回調函式 255
7.8.3 構建epoch級的自定義回調函式 258
7.8.4 構建batch級的自定義回調函式 260
第8章 模型的工程封裝與部署
8.1 深度學習模型的封裝方法 263
8.2 使用Flask部署神經網路模型 264
8.2.1 Flask是什麼 265
8.2.2 將模型部署成接口提供給第三方使用 267
8.2.3 深度學習模型與Web套用協同工作 270
8.3 基於TFX的部署實踐 273
8.3.1 TensorFlow Serving服務模型 273
8.3.2 基於TensorFlow Serving與Docker部署深度學習模型 275
第9章 回顧與展望
9.1 神經網路的架構 281
9.2 構建神經網路模型的流程與實踐 282
9.3 深度學習的局限性與展望 285

相關詞條

熱門詞條

聯絡我們