機器學習原理與Python編程實踐

機器學習原理與Python編程實踐

《 機器學習原理與Python編程實踐》是清華大學出版社出版的一本圖書。

基本介紹

  • 中文名:機器學習原理與Python編程實踐
  • 作者:袁梅宇
  • 出版時間:2021年3月1日
  • 出版社:清華大學出版社
  • ISBN:9787302570646 
  • 定價:79 元
內容簡介,目錄,

內容簡介

《機器學習原理與Python編程實踐》講述機器學習的基本原理,使用Python和Numpy實現涉及的各種機器學習算法。通過理論學習和實踐操作,使讀者了解並掌握機器學習的基本原理和技能,拉近理論與實踐的距離。全書共分為章,主要內容包括:機器學習介紹、線性回歸、邏輯回歸、貝葉斯分類器、模型評估與選擇、均值算法和算法、決策樹、神經網路、隱馬爾科夫模型、支持向量機、推薦系統、主成分分析、集成學習。全書源碼全部在Python 3.7上調試成功,每章都附有習題和習題參考答案,供讀者參考。《機器學習原理與Python編程實踐》系統講解了機器學習的常用核心算法和Python編程實踐,內容全面、實例豐富、可操作性強,做到理論與實踐相結合。本書適合機器學習愛好者作為入門和提高的技術參考書,也適合用作計算機專業高年級本科生和研究生的教材或教學參考書。

目錄

第1章 機器學習介紹 1
1.1 機器學習簡介 2
1.1.1 什麼是機器學習 2
1.1.2 機器學習與日常生活 3
1.1.3 如何學習機器學習 4
1.1.4 Python的優勢 5
1.2 基本概念 6
1.2.1 機器學習的種類 6
1.2.2 有監督學習 6
1.2.3 無監督學習 7
1.2.4 機器學習的術語 8
1.2.5 預處理 9
1.3 Numpy數據格式 10
1.3.1 標稱數據 10
1.3.2 序數數據 11
1.3.3 分類數據 11
1.4 示例數據集 12
1.4.1 天氣問題 12
1.4.2 鳶尾花 14
1.4.3 其他數據集 15
1.5 了解你的數據 16
習題 20
第2章 線性回歸 21
2.1 從一個實際例子說起 22
2.1.1 模型定義 23
2.1.2 模型假設 23
2.1.3 模型評估 24
2.2 最小二乘法 25
2.2.1 最小二乘法求解參數 25
2.2.2 用最小二乘法來擬合奧運會數據 26
2.2.3 預測比賽結果 27
2.3 梯度下降 28
2.3.1 基本思路 28
2.3.2 梯度下降算法 29
2.3.3 梯度下降求解線性回歸問題 31
2.4 多變數線性回歸 33
2.4.1 多變數線性回歸問題 33
2.4.2 多變數梯度下降 35
2.4.3 隨機梯度下降 38
2.4.4 小批量梯度下降 41
2.4.5 正規方程 43
2.5 多項式回歸 45
2.5.1 多項式回歸算法 45
2.5.2 正則化 48
習題 51
第3章 邏輯回歸 53
3.1 邏輯回歸介紹 54
3.1.1 線性回歸用於分類 54
3.1.2 假設函式 55
3.1.3 決策邊界 56
3.2 邏輯回歸算法 58
3.2.1 代價函式 58
3.2.2 梯度下降算法 59
3.2.3 SciPy最佳化函式 61
3.2.4 多項式邏輯回歸 63
3.3 多元分類 65
3.3.1 一對多 65
3.3.2 一對一 68
3.3.3 Softmax回歸 70
習題 73
第4章 貝葉斯分類器 75
4.1 簡介 76
4.1.1 概述 76
4.1.2 判別模型和生成模型 76
4.1.3 極大似然估計 77
4.2 高斯判別分析 80
4.2.1 多元高斯分布 80
4.2.2 高斯判別模型 81
4.3 樸素貝葉斯 84
4.3.1 樸素貝葉斯算法 84
4.3.2 文本分類 89
習題 95
第5章 模型評估與選擇 97
5.1 簡介 98
5.1.1 訓練誤差與泛化誤差 98
5.1.2 偏差和方差 99
5.2 評估方法 100
5.2.1 訓練集、驗證集和測試集劃分 101
5.2.2 交叉驗證 102
5.3 性能度量 105
5.3.1 常用性能度量 105
5.3.2 查準率和查全率 107
5.3.3 ROC和AUC 108
5.4 偏差與方差折中 110
5.4.1 偏差方差診斷 111
5.4.2 正則化與偏差和方差 112
5.4.3 學習曲線 113
習題 114
第6章 K-均值算法和EM算法 117
6.1 聚類分析 118
6.1.1 K-means算法 118
6.1.2 K-means算法的套用 121
6.1.3 注意事項 122
6.2 EM算法 124
6.2.1 基本EM算法 124
6.2.2 EM算法的一般形式 125
6.2.3 混合高斯模型 128
習題 134
第7章 決策樹 137
7.1 決策樹介紹 138
7.2 ID3算法 139
7.2.1 信息熵 139
7.2.2 信息增益計算示例 139
7.2.3 ID3算法描述 144
7.2.4 ID3算法實現 146
7.3 C4.5算法 147
7.3.1 基本概念 147
7.3.2 剪枝處理 151
7.3.3 C4.5算法描述 153
7.3.4 C4.5算法實現 155
7.4 CART算法 157
7.4.1 CART算法介紹 157
7.4.2 CART算法描述 160
7.4.3 CART算法實現 162
習題 163
第8章 神經網路 165
8.1 神經網路介紹 166
8.1.1 從一個實例說起 166
8.1.2 神經元 167
8.1.3 神經網路結構 169
8.1.4 簡化的神經網路模型 171
8.1.5 細節說明 175
8.2 神經網路學習 176
8.2.1 代價函式 176
8.2.2 BP算法 177
8.2.3 BP算法實現 180
8.3 神經網路實現 186
8.3.1 MNIST神經網路實現 186
8.3.2 邏輯異或的神經網路實現 188
習題 189
第9章 隱馬爾科夫模型 191
9.1 隱馬爾科夫模型基本概念 192
9.1.1 離散馬爾科夫過程 192
9.1.2 擴展至隱馬爾科夫模型 194
9.1.3 HMM的組成和序列生成 197
9.1.4 三個基本問題 199
9.2 求解HMM三個基本問題 200
9.2.1 評估問題 200
9.2.2 解碼問題 205
9.2.3 學習問題 208
習題 214
第10章 支持向量機 215
10.1 支持向量機介紹 216
10.2 最大間隔超平面 216
10.2.1 SVM問題的形式化描述 217
10.2.2 函式間隔和幾何間隔 218
10.2.3 最優間隔分類器 219
10.2.4 使用最佳化軟體求解SVM 221
10.3 對偶算法 222
10.3.1 SVM對偶問題 222
10.3.2 使用最佳化軟體求解對偶SVM 225
10.4 非線性支持向量機 226
10.4.1 核技巧 227
10.4.2 常用核函式 228
10.5 軟間隔支持向量機 231
10.5.1 動機及原問題 231
10.5.2 對偶問題 232
10.5.3 使用最佳化軟體求解軟間隔對偶SVM 234
10.6 SMO算法 236
10.6.1 SMO算法描述 236
10.6.2 簡化SMO算法實現 239
10.7 LibSVM 244
10.7.1 LibSVM的安裝 245
10.7.2 LibSVM函式 246
10.7.3 LibSVM實踐指南 248
習題 251
第11章 推薦系統 253
11.1 推薦系統介紹 254
11.1.1 什麼是推薦系統 254
11.1.2 數據集描述 255
11.1.3 推薦系統符號 256
11.2 基於用戶的協同過濾 256
11.2.1 相似性度量 257
11.2.2 算法描述 259
11.2.3 算法實現 260
11.3 基於物品的協同過濾 261
11.3.1 調整餘弦相似度和預測 261
11.3.2 Slope One算法描述 與實現 263
11.4 基於內容的協同過濾算法與實現 267
11.4.1 算法描述 267
11.4.2 算法實現 270
習題 271
第12章 主成分分析 273
12.1 主成分分析介紹 274
12.2 本徵值與奇異值分解 275
12.2.1 本徵值分解 275
12.2.2 奇異值分解 276
12.3 PCA算法描述 276
12.3.1 PCA算法 276
12.3.2 從壓縮表示中重建 278
12.3.3 確定主成分數量 278
12.4 PCA實現 279
12.4.1 假想實例 279
12.4.2 MNIST實例 284
習題 286
第13章 集成學習 289
13.1 集成學習介紹 290
13.1.1 集成學習簡介 290
13.1.2 個體學習器 291
13.1.3 集成學習的基本原理 291
13.1.4 融合個體學習器的方法 293
13.2 裝袋 294
13.2.1 裝袋算法描述 295
13.2.2 裝袋算法實現 296
13.3 提升 297
13.3.1 提升算法描述 297
13.3.2 AdaBoost算法實現 300
13.4 隨機森林 301
13.4.1 隨機森林算法描述 302
13.4.2 隨機森林算法實現 303
習題 305
附錄1 符號表 306
附錄2 習題參考答案 307
參考文獻 334

相關詞條

熱門詞條

聯絡我們