深度學習(2019年機械工業出版社出版的圖書)

深度學習(2019年機械工業出版社出版的圖書)

本詞條是多義詞,共12個義項
更多義項 ▼ 收起列表 ▲

《深度學習》是2019年機械工業出版社出版的圖書,作者是翁貝托·米凱盧奇。

基本介紹

  • 中文名:深度學習
  • 作者:翁貝托·米凱盧奇
  • 出版時間:2019年 
  • 出版社:機械工業出版社
  • ISBN:9787111637103
內容簡介,圖書目錄,作者簡介,

內容簡介

本書探討深度學習中的高級主題,例如最佳化算法、超參數調整、Dropout和誤差分析,並討論如何解決在訓練深度神經網路時遇到的典型問題。書中首先介紹單一神經元網路的激活函式(ReLu、sigmoid和Swish),然後介紹如何使用TensorFlow進行線性和邏輯回歸,以及如何選擇正確的代價函式,之後討論具有多個層和神經元的更複雜的神經網路結構,並探討權重的隨機初始化問題。本書用一整章對神經網路誤差分析進行全面概述,給出如何解決來自不同分布的方差、偏差、過擬合和數據集問題的例子。
本書還討論在不使用任何Python庫(NumPy除外)的情況下,如何從零開始完全實現邏輯回歸,以便用諸如TensorFlow這樣的庫進行快速和有效的實驗。本書包括每種方法的案例研究,以便將所有理論信息付諸實踐。你還將學到Python代碼的最佳化技巧(例如,使用NumPy對循環進行向量化)。

圖書目錄

譯者序
前言
審校者簡介
致謝
第1章 計算圖和TensorFlow1
1.1 如何構建Python環境1
1.1.1 創建環境3
1.1.2 安裝TensorFlow7
1.1.3 Jupyter記事本8
1.2 TensorFlow基本介紹10
1.2.1 計算圖10
1.2.2 張量12
1.2.3 創建和運行計算圖13
1.2.4 包含tf.constant的計算圖13
1.2.5 包含tf.Variable的計算圖14
1.2.6 包含tf. placeholder的計算圖15
1.2.7 運行和計算的區別18
1.2.8 節點之間的依賴關係18
1.2.9 創建和關閉會話的技巧19
第2章 單一神經元21
2.1 神經元結構21
2.1.1 矩陣表示法23
2.1.2 Python實現技巧:循環和NumPy24
2.1.3 激活函式25
2.1.4 代價函式和梯度下降:學習率的特點32
2.1.5 學習率的套用示例34
2.1.6 TensorFlow中的線性回歸示例38
2.2 邏輯回歸示例47
2.2.1 代價函式47
2.2.2 激活函式48
2.2.3 數據集48
2.2.4 TensorFlow實現51
2.3 參考文獻54
第3章 前饋神經網路56
3.1 網路架構57
3.1.1 神經元的輸出59
3.1.2 矩陣維度小結59
3.1.3 示例:三層網路的方程59
3.1.4 全連線網路中的超參數60
3.2 用於多元分類的softmax函式60
3.3 過擬合簡要介紹61
3.3.1 過擬合示例61
3.3.2 基本誤差分析66
3.4 Zalando數據集68
3.5 使用TensorFlow構建模型71
3.5.1 網路架構71
3.5.2 softmax函式的標籤轉換:獨熱編碼73
3.5.3 TensorFlow模型74
3.6 梯度下降變體77
3.6.1 批量梯度下降77
3.6.2 隨機梯度下降78
3.6.3 小批量梯度下降79
3.6.4 各種變體比較80
3.7 錯誤預測示例84
3.8 權重初始化84
3.9 有效添加多個層87
3.10 增加隱藏層的優點89
3.11 比較不同網路89
3.12 選擇正確網路的技巧92
第4章 訓練神經網路93
4.1 動態學習率衰減93
4.1.1 疊代還是周期94
4.1.2 階梯式衰減95
4.1.3 步長衰減96
4.1.4 逆時衰減98
4.1.5 指數衰減100
4.1.6 自然指數衰減101
4.1.7 TensorFlow實現105
4.1.8 將方法套用於Zalando數據集108
4.2 常用最佳化器109
4.2.1 指數加權平均109
4.2.2 Momentum112
4.2.3 RMSProp115
4.2.4 Adam117
4.2.5 應該使用哪種最佳化器117
4.3 自己開發的最佳化器示例118
第5章 正則化123
5.1 複雜網路和過擬合123
5.2 什麼是正則化127
5.3 ?p範數128
5.4 ?2正則化128
5.4.1 ?2正則化原理128
5.4.2 TensorFlow實現129
5.5 ?1正則化136
5.5.1 ?1正則化原理與TensorFlow實現137
5.5.2 權重真的趨於零嗎137
5.6 Dropout140
5.7 Early Stopping143
5.8 其他方法144
第6章 指標分析145
6.1 人工水平表現和貝葉斯誤差146
6.2 關於人工水平表現的故事148
6.3 MNIST中的人工水平表現149
6.4 偏差150
6.5 指標分析圖151
6.6 訓練集過擬合151
6.7 測試集152
6.8 如何拆分數據集153
6.9 不平衡類分布:會發生什麼157
6.10 精確率、召回率和F1指標161
6.11 不同分布的數據集164
6.12 k折交叉驗證170
6.13 手動指標分析示例177
第7章 超參數調優183
7.1 黑盒最佳化183
7.2 黑盒函式注意事項184
7.3 超參數調優問題185
7.4 黑盒問題示例186
7.5 格線搜尋186
7.6 隨機搜尋190
7.7 粗到細最佳化192
7.8 貝葉斯最佳化195
7.8.1 Nadaraya-Watson回歸195
7.8.2 高斯過程195
7.8.3 平穩過程196
7.8.4 用高斯過程預測196
7.8.5 採集函式200
7.8.6 上置信界(UCB)201
7.8.7 示例201
7.9 對數尺度採樣207
7.10 使用Zalando數據集的超參數調優208
7.11 徑向基函式注意事項214
第8章 卷積神經網路和循環神經網路216
8.1 卷積核和過濾器216
8.2 卷積217
8.3 卷積運算示例223
8.4 池化227
8.5 構建CNN塊230
8.5.1 卷積層230
8.5.2 池化層231
8.5.3 各層的疊加231
8.5.4 CNN示例232
8.6 RNN介紹237
8.6.1 符號237
8.6.2 RNN的基本原理238
8.6.3 循環神經網路名稱的由來239
8.6.4 學會統計239
第9章 研究項目244
9.1 問題描述244
9.2 數學模型246
9.3 回歸問題246
9.4 數據準備250
9.5 模型訓練258
第10章 從零開始進行邏輯回歸261
10.1 邏輯回歸的數學背景262
10.2 Python實現264
10.3 模型測試266
10.3.1 數據集準備267
10.3.2 運行測試268
10.4 結論268

作者簡介

翁貝托•米凱盧奇(Umberto Michelucci)
目前在瑞士領先的醫療保險公司從事創新和人工智慧(AI)工作。他領導與人工智慧、新技術、機器學習以及大學的研究合作相關的多項戰略計畫。此前,他曾擔任多個大型醫療保健項目的數據科學家和首席建模師,並在編程和算法設計方面擁有豐富的實踐經驗。他管理過商務智慧型和數據倉庫項目,使數據驅動的解決方案能夠在複雜的生產環境中實施。最近,Umberto 對神經網路進行了廣泛的研究,並套用深度學習來解決與保險、客戶行為(如客戶流失)和感測器科學相關的一些問題。他曾在義大利、美國和德國學習理論物理,並擔任研究員,還在英國接受過高等教育。他經常在會議上發表科學成果,並在同行評審的期刊上發表研究論文。

相關詞條

熱門詞條

聯絡我們