深度學習的數學原理與實現

深度學習的數學原理與實現

《深度學習的數學原理與實現》是清華大學出版社出版的一本圖書,作者是王曉華。

基本介紹

  • 中文名:深度學習的數學原理與實現
  • 作者:王曉華
  • 類別:人工智慧
  • 出版社清華大學出版社
  • 出版時間:2021年6月
  • 開本:16 開
  • 裝幀:平裝
  • ISBN:9787302580287
作者簡介,內容簡介,圖書目錄,

作者簡介

王曉華,計算機專業講師,長期講授面向對象程式設計、數據結構、Hadoop程式設計等研究生和本科生相關課程;主要研究方向為雲計算、數據挖掘。曾主持和參與多項國家和省級科研課題,獨立科研項目獲省級成果認定,發表過多篇論文,擁有一項國家專利。著有《Spark MLlib機器學習實踐》《TensorFlow深度學習套用實踐》《OpenCV TensorFlow深度學習與計算機視覺實戰》《TensorFlow 2.0卷積神經網路實戰》《TensorFlow Keras自然語言處理實戰》等圖書。

內容簡介

深度學習已經進入我們的生活,雲計算和大數據為深度學習提供了便利。本書主要講解深度學習中的數學知識、算法原理和實現方法,配套源碼、數據集和開發環境。本書共12章。第1章介紹人類視覺和深度學習的聯繫。第2章介紹深度學習中最為重要的梯度下降算法。第3章介紹卷積函式。第4章介紹計算損失函式所使用的交叉熵、決策樹和信息熵。第5章介紹線性回歸和邏輯回歸。第6、7章介紹時間序列模型和生成對抗網路。第8章介紹TensorFlow框架。第9章介紹推薦算法。第10章介紹深度學習中的標準化、正則化和初始化。第11章是案例人臉識別。第12章是詞嵌入向量案例,介紹自然語言處理方面的套用。本書理論和實踐相結合,理論講解細緻直觀,通過實例進行演示,可以使讀者快速掌握本書內容。本書適合深度學習初學者、深度學習算法開發人員閱讀,也適合高等院校和培訓機構人工智慧相關專業的師生參考。

圖書目錄

第1章 Hello World—從計算機視覺與人類視覺談起 1
1.1 人類的視覺 1
1.1.1 人類視覺神經的啟迪 1
1.1.2 計算機視覺的難點與人工神經網路 2
1.1.3 套用深度學習解決計算機視覺問題 3
1.2 計算機視覺學習的基礎與研究方向 4
1.2.1 學習計算機視覺結構圖 4
1.2.2 計算機視覺的學習方式和未來趨勢 5
1.3 本章小結 6
第2章 道士下山—故事的開始 7
2.1 BP神經網路簡介 7
2.2 BP神經網路的兩個基礎算法詳解 11
2.2.1 最小二乘法 11
2.2.2 梯度下降法 13
2.3 反饋神經網路反向傳播算法 16
2.3.1 深度學習基礎 16
2.3.2 鏈式求導法則 17
2.3.3 反饋神經網路原理與公式推導 18
2.3.4 反饋神經網路原理的激活函式 23
2.3.5 反饋神經網路原理的Python實現 24
2.4 本章小結 29
第3章 貓還是狗—深度學習中的卷積與其他函式 30
3.1 卷積運算基本概念 30
3.1.1 卷積運算 31
3.1.2 卷積核 33
3.1.3 卷積神經網路原理 33
3.2 卷積神經網路公式推導 35
3.2.1 經典反饋神經網路正向與反向傳播公式推導 36
3.2.2 卷積神經網路正向與反向傳播公式推導 38
3.3 激活、分類以及池化函式簡介 45
3.3.1 別偷懶—激活函式是分割器 45
3.3.2 太多了,我只要一個—池化運算 49
3.3.3 全連線層詳解 50
3.3.4 最終的裁判—分類函式 52
3.3.5 每次都是一個新模型—隨機失活層簡介 54
3.4 本章小結 55
第4章 水晶球的秘密—信息熵、決策樹與交叉熵 56
4.1 水晶球的秘密 56
4.1.1 水晶球的秘密概述 57
4.1.2 決策樹的算法基礎—信息熵 57
4.1.3 決策樹的算法基礎—ID3算法 59
4.2 信息熵最重要的套用—交叉熵 60
4.2.1 交叉熵基本原理詳解 61
4.2.2 交叉熵的表述 63
4.2.3 把無用的利用起來—交叉熵的改進1(你想做科研嗎?) 64
4.2.4 交叉熵的作用與改進—解決正負樣本數量差異過大 66
4.2.5 交叉熵的作用與改進—解決樣本的難易分類 68
4.2.6 統一後的交叉熵 68
4.3 本章小結 69
第5章 Mission Impossible!—把不可能變成可能的機器學習 70
5.1 機器學習基本分類 71
5.1.1 套用學科的分類 71
5.1.2 學習模式的分類 72
5.1.3 套用領域的分類 72
5.2 機器學習基本算法 73
5.2.1 機器學習的算法流程 73
5.2.2 基本算法的分類 74
5.3 算法的理論基礎 75
5.3.1 小學生的故事—求圓的面積 76
5.3.2 機器學習基礎理論—函式逼近 76
5.4 回歸算法 77
5.4.1 函式逼近經典算法—線性回歸算法 78
清華大學出版社-圖書目錄
5.4.2 邏輯回歸不是回歸—邏輯回歸算法 79
5.5 本章小結 80
第6章 書中自有黃金屋—橫掃股市的時間序列模型 81
6.1 長短期記憶網路 81
6.1.1 Hochreiter & Schmidhuber和LSTM 82
6.1.2 循環神經網路與長短期記憶網路 83
6.1.3 LSTM的“處理單元”詳解 85
6.1.4 LSTM的實現與股市預測 87
6.2 LSTM的研究發展與套用 90
6.2.1 LSTM的研究發展 91
6.2.2 LSTM的套用前景 92
6.3 本章小結 93
第7章 書中自有顏如玉—GAN is a girl 94
7.1 GAN的工作原理詳解 94
7.1.1 生成器與判別器共同構成一個GAN 95
7.1.2 GAN是怎么工作的 96
7.2 GAN的數學原理詳解 97
7.2.1 GAN的損失函式 97
7.2.2 生成器的數學原理—相對熵簡介 98
7.2.3 GAN的套用前景 99
7.3 本章小結 103
第8章 休息一下,讓我們玩一把TensorFlow 104
8.1 TensorFlow遊樂場 104
8.1.1 讓我們一起來玩吧 104
8.1.2 TensorFlow遊樂場背後的故事 108
8.1.3 如何訓練神經網路 109
8.2 你好,TensorFlow 110
8.2.1 TensorFlow名稱的解釋 110
8.2.2 TensorFlow基本概念 111
8.2.3 TensorFlow基本架構 113
8.3 本章小結 114
第9章 你喜歡什麼我全知道—推薦系統的原理 115
9.1 傳統方法的推薦系統 115
9.1.1 基於內容的推薦算法 116
9.1.2 多種相似度的計算方法 116
9.1.3 基於內容推薦算法的數學原理—以文檔特徵提取的TF-IDF為例 120
9.1.4 基於協同過濾的推薦算法 122
9.2 基於深度學習的推薦系統 127
9.2.1 基於模型的推薦算法 127
9.2.2 基於用戶畫像的推薦算法 128
9.2.3 基於深度學習推薦系統的總結 129
9.3 本章小結 130
第10章 整齊劃一畫個龍—深度學習中的歸一化、正則化與初始化 131
10.1 常用的數據歸一化方法 131
10.1.1 數據歸一化的作用 132
10.1.2 幾種常用的數據歸一化 133
10.2 不那么深的深度學習模型的正則化方法 134
10.2.1 “淺度”學習中的正則化 135
10.2.2 關於過擬合問題的解決 136
10.2.3 批量歸一化詳解 138
10.2.4 深度學習中的隨機失活 143
10.2.5 深度學習中的初始化 143
10.3 本章小結 145
第11章 眾里尋她千百度—人臉識別的前世今生 146
11.1 人臉識別簡介 147
11.1.1 人臉識別的發展歷程 147
11.1.2 人臉識別的一般方法 148
11.1.3 人臉識別的通用流程 149
11.2 基於深度學習的人臉識別 151
11.2.1 基於深度學習的人臉識別簡介 152
11.2.2 用於深度學習的人臉識別數據集 154
11.2.3 基於深度學習的人臉識別模型 157
11.3 人臉識別中的softmax激活函式 162
11.3.1 softmax基本原理詳解 162
11.3.2 AMsoftmax基本原理詳解 163
11.3.3 softmax的一些改進 165
11.4 本章小結 166
第12章 梅西-阿根廷+義大利=?—有趣的詞嵌入向量 167
12.1 文本數據處理 168
12.1.1 數據集和數據清洗 168
12.1.2 停用詞的使用 170
12.1.3 詞向量訓練模型word2vec的使用 173
12.1.4 文檔主題的提取:基於TF-IDF 176
12.1.5 文檔主題的提取:基於TextRank(選學) 180
12.2 更多的詞嵌入向量方法—fastText和預訓練詞向量 183
12.2.1 fastText的原理與基礎算法 183
12.2.2 使用fastText訓練詞嵌入向量 185
12.2.3 使用其他預訓練參數(中文) 190
12.3 針對文本的卷積神經網路模型—字元卷積 191
12.3.1 字元(非單詞)文本的處理 191
12.3.2 卷積神經網路文檔分類模型的實現—conv1d(一維卷積) 198
12.4 針對文檔的卷積神經網路模型—詞卷積 200
12.4.1 單詞的文本處理 201
12.4.2 卷積神經網路文檔分類模型的實現—conv2d(二維卷積) 203
12.5 使用卷積對文檔分類的補充內容 206
12.5.1 中文的文本處理 206
12.5.2 其他細節 209
12.6 本章小結 210

相關詞條

熱門詞條

聯絡我們