機器學習導論(原書第3版)

機器學習導論(原書第3版)

《機器學習導論(原書第3版)》是機械工業出版社出版的圖書,作者是[土耳其] 埃塞姆·阿培丁(EthemAlpaydin)。

基本介紹

  • 中文名:機器學習導論(原書第3版) 
  • 作者:[土耳其] 埃塞姆·阿培丁(EthemAlpaydin)
  • 出版時間:2016年1月1日
  • 出版社:機械工業出版社
  • 頁數:356 頁
  • ISBN:9787111521945
  • 定價:79.00 元
  • 裝幀:平裝
  • 叢書:計算機科學叢書
內容簡介,圖書目錄,作者簡介,

內容簡介

機器學習的目標是對計算機編程,以便使用樣本數據或以往的經驗來解決給定的問題。已經有許多機器學習的成功套用,包括分析以往銷售數據來預測客戶行為,最佳化機器人的行為以便使用較少的資源來完成任務,以及從生物信息數據中提取知識的各種系統。本書是關於機器學習的內容全面的教科書,其中有些內容在一般的在機器學習導論書中很少介紹。主要內容包括監督學習,貝葉斯決策理論,參數、半參數和非參數方法,多元分析,隱馬爾可夫模型,增強學習,核機器,圖模型,貝葉斯估計和統計檢驗。 機器學習正在迅速成為計算機科學專業的學生必須掌握的一門技能。本書第3版反映了這種變化,增加了對初學者的支持,包括給出了部分習題的參考答案和補充了實例數據集(提供線上代碼)。其他顯著的變化包括離群點檢測的討論、感知器和支持向量機的排名算法、矩陣分解和譜方法、距離估計、新的核算法、多層感知器的深度學習和非參數貝葉斯方法。書中對所有學習算法都進行了解釋,以便讀者可以很容易地將書中的公式轉變為電腦程式。本書可以用作高年級本科生和碩士研究生的教材,也可供研究機器學習方法的技術人員參考。

圖書目錄

出版者的話
譯者序
前言
符號說明
第1章引言1
1.1什麼是機器學習1
1.2機器學習的套用實例2
1.2.1學習關聯性2
1.2.2分類3
1.2.3回歸5
1.2.4非監督學習6
1.2.5增強學習7
1.3注釋8
1.4相關資源10
1.5習題11
1.6參考文獻12
第2章監督學習13
2.1由實例學習類13
2.2VC維16
2.3機率近似正確學習16
2.4噪聲17
2.5學習多類18
2.6回歸19
2.7模型選擇與泛化21
2.8監督機器學習算法的維23
2.9注釋24
2.10習題25
2.11參考文獻26
第3章貝葉斯決策理論27
3.1引言27
3.2分類28
3.3損失與風險29
3.4判別式函式30
3.5關聯規則31
3.6注釋33
3.7習題33
3.8參考文獻36
第4章參數方法37
4.1引言37
4.2最大似然估計37
4.2.1伯努利密度38
4.2.2多項式密度38
4.2.3高斯(正態)密度39
4.3評價估計:偏倚和方差39
4.4貝葉斯估計40
4.5參數分類42
4.6回歸44
4.7調整模型的複雜度:偏倚/方差兩難選擇46
4.8模型選擇過程49
4.9注釋51
4.10習題51
4.11參考文獻53
第5章多元方法54
5.1多元數據54
5.2參數估計54
5.3缺失值估計55
5.4多元常態分配56
5.5多元分類57
5.6調整複雜度61
5.7離散特徵62
5.8多元回歸63
5.9注釋64
5.10習題64
5.11參考文獻66
第6章維度歸約67
6.1引言67
6.2子集選擇67
6.3主成分分析70
6.4特徵嵌入74
6.5因子分析75
6.6奇異值分解與矩陣分解78
6.7多維定標79
6.8線性判別分析82
6.9典範相關分析85
6.10等距特徵映射86
6.11局部線性嵌入87
6.12拉普拉斯特徵映射89
6.13注釋90
6.14習題91
6.15參考文獻92
第7章聚類94
7.1引言94
7.2混合密度94
7.3k均值聚類95
7.4期望最大化算法98
7.5潛在變數混合模型100
7.6聚類後的監督學習101
7.7譜聚類102
7.8層次聚類103
7.9選擇簇個數104
7.10注釋104
7.11習題105
7.12參考文獻106
第8章非參數方法107
8.1引言107
8.2非參數密度估計108
8.2.1直方圖估計108
8.2.2核估計109
8.2.3k最近鄰估計110
8.3推廣到多變元數據111
8.4非參數分類112
8.5精簡的最近鄰112
8.6基於距離的分類113
8.7離群點檢測115
8.8非參數回歸:光滑模型116
8.8.1移動均值光滑116
8.8.2核光滑117
8.8.3移動線光滑119
8.9如何選擇光滑參數119
8.10注釋120
8.11習題121
8.12參考文獻122
第9章決策樹124
9.1引言124
9.2單變數樹125
9.2.1分類樹125
9.2.2回歸樹128
9.3剪枝130
9.4由決策樹提取規則131
9.5由數據學習規則132
9.6多變數樹134
9.7注釋135
9.8習題137
9.9參考文獻138
第10章線性判別式139
10.1引言139
10.2推廣線性模型140
10.3線性判別式的幾何意義140
10.3.1兩類問題140
10.3.2多類問題141
10.4逐對分離142
10.5參數判別式的進一步討論143
10.6梯度下降144
10.7邏輯斯諦判別式145
10.7.1兩類問題145
10.7.2多類問題147
10.8回歸判別式150
10.9學習排名151
10.10注釋152
10.11習題152
10.12參考文獻154
第11章多層感知器155
11.1引言155
11.1.1理解人腦155
11.1.2神經網路作為並行處理的典範156
11.2感知器157
11.3訓練感知器159
11.4學習布爾函式160
11.5多層感知器161
11.6作為普適近似的MLP162
11.7向後傳播算法163
11.7.1非線性回歸163
11.7.2兩類判別式166
11.7.3多類判別式166
11.7.4多個隱藏層167
11.8訓練過程167
11.8.1改善收斂性167
11.8.2過分訓練168
11.8.3構造網路169
11.8.4線索169
11.9調整網路規模170
11.10學習的貝葉斯觀點172
11.11維度歸約173
11.12學習時間174
11.12.1時間延遲神經網路175
11.12.2遞歸網路175
11.13深度學習176
11.14注釋177
11.15習題178
11.16參考文獻180
第12章局部模型182
12.1引言182
12.2競爭學習182
12.2.1線上k均值182
12.2.2自適應共鳴理論184
12.2.3自組織映射185
12.3徑向基函式186
12.4結合基於規則的知識189
12.5規範化基函式190
12.6競爭的基函式191
12.7學習向量量化193
12.8混合專家模型193
12.8.1協同專家模型194
12.8.2競爭專家模型195
12.9層次混合專家模型195
12.10注釋196
12.11習題196
12.12參考文獻198
第13章核機器200
13.1引言200
13.2最佳分離超平面201
13.3不可分情況:軟邊緣超平面203
13.4vSVM205
13.5核技巧205
13.6向量核206
13.7定義核207
13.8多核學習208
13.9多類核機器209
13.10用於回歸的核機器210
13.11用於排名的核機器212
13.12一類核機器213
13.13大邊緣最近鄰分類215
13.14核維度歸約216
13.15注釋217
13.16習題217
13.17參考文獻218
第14章圖方法221
14.1引言221
14.2條件獨立的典型情況222
14.3生成模型226
14.4d分離227
14.5信念傳播228
14.5.1鏈228
14.5.2樹229
14.5.3多樹230
14.5.4結樹232
14.6無向圖:馬爾科夫隨機場232
14.7學習圖模型的結構234
14.8影響圖234
14.9注釋234
14.10習題235
14.11參考文獻237
第15章隱馬爾科夫模型238
15.1引言238
15.2離散馬爾科夫過程238
15.3隱馬爾科夫模型240
15.4HMM的三個基本問題241
15.5估值問題241
15.6尋找狀態序列244
15.7學習模型參數245
15.8連續觀測247
15.9HMM作為圖模型248
15.10HMM中的模型選擇250
15.11注釋251
15.12習題252
15.13參考文獻254
第16章貝葉斯估計255
16.1引言255
16.2離散分布的參數的貝葉斯估計257
16.2.1K>2個狀態:狄利克雷分布257
16.2.2K=2個狀態:貝塔分布258
16.3高斯分布的參數的貝葉斯估計258
16.3.1一元情況:未知均值,已知方差258
16.3.2一元情況:未知均值,未知方差259
16.3.3多元情況:未知均值,未知協方差260
16.4函式的參數的貝葉斯估計261
16.4.1回歸261
16.4.2具有噪聲精度先驗的回歸264
16.4.3基或核函式的使用265
16.4.4貝葉斯分類266
16.5選擇先驗268
16.6貝葉斯模型比較268
16.7混合模型的貝葉斯估計270
16.8非參數貝葉斯建模272
16.9高斯過程272
16.10狄利克雷過程和中國餐館275
16.11本徵狄利克雷分配276
16.12貝塔過程和印度自助餐277
16.13注釋278
16.14習題278
16.15參考文獻279
第17章組合多學習器280
17.1基本原理280
17.2產生有差異的學習器280
17.3模型組合方案282
17.4投票法282
17.5糾錯輸出碼285
17.6裝袋286
17.7提升287
17.8重溫混合專家模型288
17.9層疊泛化289
17.10調整系綜290
17.10.1選擇系綜的子集290
17.10.2構建元學習器290
17.11級聯291
17.12注釋292
17.13習題293
17.14參考文獻294
第18章增強學習297
18.1引言297
18.2單狀態情況:K臂賭博機問題298
18.3增強學習的要素299
18.4基於模型的學習300
18.4.1價值疊代300
18.4.2策略疊代301
18.5時間差分學習301
18.5.1探索策略301
18.5.2確定性獎勵和動作302
18.5.3非確定性獎勵和動作303
18.5.4資格跡304
18.6推廣305
18.7部分可觀測狀態306
18.7.1場景306
18.7.2例子:老虎問題307
18.8注釋310
18.9習題311
18.10參考文獻312
第19章機器學習實驗的設計與分析314
19.1引言314
19.2因素、回響和實驗策略315
19.3回響面設計317
19.4隨機化、重複和阻止317
19.5機器學習實驗指南318
19.6交叉驗證和再抽樣方法320
19.6.1K折交叉驗證320
19.6.25×2交叉驗證320
19.6.3自助法321
19.7度量分類器的性能321
19.8區間估計324
19.9假設檢驗326
19.10評估分類算法的性能327
19.10.1二項檢驗327
19.10.2近似正態檢驗328
19.10.3t檢驗328
19.11比較兩個分類算法329
19.11.1McNemar檢驗329
19.11.2K折交叉驗證配對t檢驗329
19.11.35×2交叉驗證配對t檢驗330
19.11.45×2交叉驗證配對F檢驗330
19.12比較多個算法:方差分析331
19.13在多個數據集上比較333
19.13.1比較兩個算法334
19.13.2比較多個算法335
19.14多元檢驗336
19.14.1比較兩個算法336
19.14.2比較多個算法337
19.15注釋338
19.16習題339
19.17參考文獻340
附錄A機率論341
索引348

作者簡介

埃塞姆·阿培丁(Ethem Alpaydin),土耳其伊斯坦堡博阿齊奇大學計算機工程系的教授。於1990年在洛桑聯邦理工學院獲博士學位,先後在美國麻省理工學院和伯克利大學工作和進行博士後研究。Ethem博士主要從事機器學習方面的研究,是劍橋大學《The Computer Journal》雜誌編委和Elsevier《Pattern Recognition》雜誌的副主編。2001年和2002年,Ethem博士先後獲得土耳其科學院青年科學家獎和土耳其科學與技術研究委員會科學獎。

相關詞條

熱門詞條

聯絡我們