速通深度學習數學基礎

《速通深度學習數學基礎》是電子工業出版社出版圖書,作者是盧菁

線性代數微積分、機率論三條邏輯主線,以數學知識帶出深度學習知識

基本介紹

  • 中文名:速通深度學習數學基礎
  • 作者:盧菁
  • 出版社:電子工業出版社
  • 出版時間:2023年1月
  • 頁數:185 頁
  • 定價:79 元
  • 開本:16 開
  • ISBN:9787121447808
內容簡介,圖書目錄,作者簡介,

內容簡介

本書以理論結合實際的方式講解,使數學知識不再是冰冷的公式堆砌,而變成一個個真實的案例,同時對案例背後的原理進行理論上的升華,希望達到一通百通的效果

圖書目錄

第1章 線性代數的基本概念 1
1.1 向量和深度學習 1
1.2 向量距離計算 7
1.3 向量的基本性質 11
1.3.1 向量的基本運算 11
1.3.2 線性相關和線性無關 14
1.3.3 向量的投影和正交 15
1.4 矩陣 18
1.4.1 矩陣的基本概念 18
1.4.2 矩陣和神經網路 26
1.4.3 矩陣的秩 28
1.5 一些特殊的矩陣 30
1.5.1 矩陣的逆和廣義逆 30
1.5.2 正交矩陣 32
第2章 線性代數在深度學習中的套用 34
2.1 特徵值和特徵向量 34
2.1.1 特徵值和特徵向量的定義 34
2.1.2 一般矩陣的特徵分解 37
2.1.3 對稱矩陣的特徵分解 38
2.2 奇異值分解 41
2.3 正定矩陣 45
2.4 矩陣的範數和神經網路 46
2.5 主成分分析 49
2.6 推薦系統中的矩陣分解 55
第3章 微積分的基本概念 59
3.1 導數的定義和幾何意義 59
3.2 複雜函式求導 61
3.3 導數的存在性 64
3.4 多元函式求導 65
3.5 二階導數和高階導數 65
3.6 函式的極大值和極小值 69
3.6.1 一元函式的極大值和極小值 69
3.6.2 多元函式的凹凸性和海森矩陣 72
3.6.3 凸最佳化證明 73
第4章 微積分在深度學習中的套用 77
4.1 梯度下降法 77
4.1.1 梯度下降法在深度學習中的套用 77
4.1.2 泰勒公式和梯度下降法 80
4.1.3 牛頓疊代法 81
4.2 梯度下降法的缺點 84
4.3 矩陣求導術 88
4.3.1 標量對向量和矩陣求導 88
4.3.2 向量對向量求導 89
4.3.3 鏈式法則 91
4.4 常見激活函式及其導數 92
4.5 常見損失函式及其導數 99
4.5.1 分類和回歸 99
4.5.2 哈夫曼樹和負採樣 103
4.5.3 度量學習 106
4.6 積分和求和 108
4.6.1 積分和不定積分 108
4.6.2 多重積分 111
4.6.3 分類模型的效果指標AUC 113
第5章 機率的基本概念 117
5.1 機率入門 117
5.2 聯合機率和條件機率 119
5.3 貝葉斯定理 122
5.4 連續機率分布 124
5.5 均值和方差 126
5.6 相關性 130
5.7 常態分配 133
5.7.1 常態分配的基本概念和性質 133
5.7.2 常態分配和邏輯回歸 137
第6章 機率在深度學習中的套用 139
6.1 機率分布之間的距離 139
6.2 最大似然估計 140
6.3 Logit和Softmax 143
6.3.1 二分類的Logit 143
6.3.2 多分類的Softmax 144
6.4 語言模型 147
6.5 機率悖論 150
6.5.1 辛普森悖論 150
6.5.2 基本比率謬誤 151
6.5.3 羅傑斯現象 153
6.5.4 伯克森悖論 153
6.6 統計學基礎 155
6.6.1 卡方分布和學生分布 155
6.6.2 假設檢驗 158
6.6.3 AB測試 168
6.7 各類散列變換 172
6.7.1 特徵Hash 172
6.7.2 MD5 174
6.7.3 特徵空間的投影 175
6.7.4 simhash 177
6.7.5 minhash 178
6.8 分類器性能的極限 181
6.8.1 最大AUC 181
6.8.2 貝葉斯錯誤率 184

作者簡介

盧菁
北京科技大學博士,北京大學博士後流動站出站。工作於騰訊、愛奇藝等知名網際網路公司,主要從事人工智慧技術的套用和研發工作。主要研究方向為機器學習、自然語言處理、知識圖譜、推薦系統等,有豐富的理論和實踐經驗。

相關詞條

熱門詞條

聯絡我們