機器學習(Python實現)

機器學習(Python實現)

《機器學習(Python實現)》是2023年清華大學出版社出版的圖書,作者是孫家澤,王曙燕,路龍賓,田振洲,王紅玉。

基本介紹

  • 中文名:機器學習(Python實現)
  • 作者:孫家澤,王曙燕,路龍賓,田振洲,王紅玉
  • 出版時間:2023年7月1日
  • 出版社:清華大學出版社
  • ISBN:9787302632115 
  • 定價:69 元
內容簡介,圖書目錄,

內容簡介

機器學習是人工智慧的重要分支。本書立足實用且易於上手實踐的原則,系統地介紹機器學習領域的經典算法,以及這些算法的Python實現和典型套用。本書分4部分: 第1部分介紹監督學習,包括線性模型、決策樹分類、貝葉斯分類器、集成學習和支持向量機;第2部分介紹無監督學習,包括關聯規則、聚類分析和數據降維;第3部分介紹深度學習,包括神經網路、深度學習和生成對抗網路;第4部分介紹強化學習。本書所介紹的經典機器學習算法及其套用案例均給出了相關實驗數據和Python代碼實現,每章末尾還給出了習題和實驗題,便於讀者鞏固知識和開展課內實驗。

圖書目錄

目錄
第1章緒論/1
1.1什麼是機器學習1
1.1.1機器學習的定義1
1.1.2機器學習的三要素3
1.1.3機器學習與數據挖掘3
1.2為什麼要進行機器學習5
1.3機器學習的發展歷程5
1.4機器學習算法9
1.4.1監督學習9
1.4.2無監督學習10
1.4.3半監督學習11
1.4.4強化學習12
1.5機器學習的套用12
1.6機器學習開發工具與框架13
1.6.1機器學習常用開發工具13
1.6.2機器學習常用框架15
1.7機器學習數據集16
習題17
第1部分監 督 學 習
第2章線性模型/21
2.1基本形式21
2.2線性回歸22
2.3線性分類25
2.4多分類策略28
習題33
本章實驗34
第3章決策樹分類/35
3.1基本概念35
3.1.1什麼是分類35
3.1.2分類過程36
3.1.3分類器常見的構造方法37
3.1.4決策樹分類38
3.2CART算法39
3.2.1CART算法介紹39
3.2.2CART算法原理40
3.2.3CART算法實例40
3.2.4CART算法Python實現42
3.2.5CART算法的優缺點43
3.3ID3算法43
3.3.1ID3算法介紹43
3.3.2ID3算法原理44
3.3.3ID3算法實例45
3.3.4ID3算法Python實現48
3.3.5ID3的優缺點51
3.4C4.5算法52
3.4.1C4.5算法介紹52
3.4.2C4.5算法原理52
3.4.3C4.5算法實例53
3.4.4C4.5算法Python實現58
3.4.5C4.5算法的優缺點59
3.53種算法的比較59
3.6分類算法評價60
3.6.1常用術語60
3.6.2評價指標61
3.6.3分類器性能的表示62
3.6.4分類器性能的評估方法65
習題66
本章實驗68
第4章貝葉斯分類器/69
4.1貝葉斯理論69
4.1.1條件機率和乘法定理69
4.1.2全機率公式和貝葉斯定理70
4.1.3極大後驗假設和極大似然假設70
4.2樸素貝葉斯分類算法72
4.2.1NBC算法原理72
4.2.2樸素貝葉斯分類器的特點75
4.3樸素貝葉斯分類器在破產預測中的套用76
4.3.1實驗環境及數據集76
4.3.2數據處理77
4.3.3模型構建77
4.3.4模型評價分析78
4.4極大期望算法79
4.4.1極大似然估計79
4.4.2極大期望算法81
4.4.3EM算法的優缺點86
4.5EM算法求解三硬幣模型參數87
4.5.1三硬幣模型87
4.5.2三硬幣模型Python實現87
習題89
本章實驗90
第5章集成學習/91
5.1基本概念91
5.1.1算法起源91
5.1.2基本概念91
5.2Bagging算法與隨機森林93
5.2.1Bagging算法93
5.2.2隨機森林94
5.3Boosting算法102
5.3.1Boosting算法概述102
5.3.2AdaBoost算法103
5.3.3GBDT和XGBoost118
習題119
本章實驗120
第6章支持向量機/121
6.1最大間隔分類121
6.2支持向量機模型求解123
6.3核支持向量機模型130
6.4軟體間隔支持向量機135
習題140
本章實驗141
第2部分無監督學習
第7章關聯規則/145
7.1基本概念145
7.2Apriori算法149
7.2.1Apriori算法150
7.2.2Apriori算法實例154
7.2.3Apriori算法實現157
7.2.4Apriori算法總結162
7.3FPGrowth算法163
7.3.1FPGrowth算法簡介164
7.3.2FPGrowth算法實例171
7.3.3FPGrowth算法實現173
7.3.4FPGrowth算法總結178
習題178
本章實驗180
第8章聚類分析/181
8.1聚類分析最佳化模型181
8.1.1聚類分析概念181
8.1.2聚類最佳化模型182
8.2基於劃分的聚類算法183
8.2.1Kmeans算法183
8.2.2Kmeans算法套用: 圖像減色壓縮186
8.2.3Kmeans算法的優缺點188
8.3基於層次的聚類算法189
8.3.1AGNES算法190
8.3.2DIANA算法194
8.4基於密度的聚類算法198
8.4.1DBSCAN198
8.4.2OPTICS204
8.4.3DENCLUE210
8.5聚類效果評估方法211
8.5.1估計聚類趨勢212
8.5.2確定簇數213
8.5.3評估聚類質量214
習題220
本章實驗221
第9章數據降維/222
9.1主成分分析222
9.2線性判別分析225
9.3核線性降維229
習題234
本章實驗234
第3部分深 度 學 習
第10章神經網路/237
10.1人工神經網路237
10.1.1人工神經網路介紹237
10.1.2人工神經網路的發展歷史237
10.2前饋神經網路239
10.2.1神經元介紹239
10.2.2網路結構243
10.2.3前饋神經網路244
10.3反向傳播算法246
10.3.1梯度下降246
10.3.2反向傳播250
10.3.3神經網路最佳化中的挑戰254
10.3.4神經網路調參方法256
10.4神經網路案例257
10.4.1前饋計算257
10.4.2反向傳播計算258
10.5總結260
習題261
本章實驗261
第11章深度學習/262
11.1卷積神經網路262
11.1.1卷積及卷積層262
11.1.2匯聚層266
11.1.3幾種典型的卷積神經網路268
11.2循環神經網路281
11.2.1基礎的循環神經網路281
11.2.2基於門控的循環神經網路286
11.2.3典型套用與實現289
11.3Transformer和大型語言模型297
11.3.1自注意力和Transformer架構297
11.3.2基於Transformer的預訓練模型304
11.3.3ChatGPT308
習題313
本章實驗314
第12章生成對抗網路/315
12.1算法原理315
12.2數學模型317
12.2.1GAN最佳化目標317
12.2.2GAN訓練算法318
12.2.3分布距離度量319
12.2.4生成器G的全局最優解320
12.2.5GAN優勢和劣勢321
12.3變體模型322
12.3.1基於Wasserstein距離的生成對抗網路322
12.3.2深度卷積生成對抗網路325
12.4評價標準329
12.4.1IS系列330
12.4.2弗雷切特初始距離331
12.4.3最大均值差異332
12.4.4標準化相對鑑別分數332
12.5GAN實現手寫體數字圖片生成334
習題342
本章實驗342
第4部分強 化 學 習
第13章強化學習/345
13.1強化學習概述345
13.1.1基本原理345
13.1.2強化學習和有監督學習345
13.1.3強化學習方法分類346
13.1.4強化學習的發展與套用347
13.2QLearning算法348
13.2.1QLearning算法介紹348
13.2.2QLearning算法實現350
13.2.3QLearning算法實例350
13.2.4QLearning算法評價353
13.3SARSA算法353
13.3.1SARSA算法介紹353
13.3.2SARSA算法原理354
13.3.3SARSA算法實例354
13.3.4SARSA算法評價357
13.4DQN算法358
13.4.1DQN算法介紹358
13.4.2DQN算法原理359
13.4.3DQN算法實例359
13.4.4DQN算法評價362
習題362
本章實驗362

相關詞條

熱門詞條

聯絡我們