機器學習導論(原書第2版)

機器學習導論(原書第2版)

《機器學習導論(原書第2版)》是2018年機械工業出版社出版的圖書,作者是米羅斯拉夫.庫巴特。

基本介紹

  • 書名:機器學習導論(原書第2版)
  • 作者:米羅斯拉夫.庫巴特
  • ISBN:9787111605812
  • 定價:79元
  • 出版社:機械工業出版社
  • 出版時間:2018年10月
  • 裝幀:平裝
  • 開本:16開
內容簡介,作者簡介,圖書目錄,

內容簡介

本書是一本淺顯易懂的機器學習入門教材,它以理論與實際相結合的方式全面地涵蓋了主流的機器學習理論與技術。全書共17章,介紹了貝葉斯分類器、近鄰分類器、線性與多項式分類器、人工神經網路、決策樹、基於規則集的分類器、遺傳算法等經典的機器學習方法,對計算學習理論、性能評估、統計顯著性等進行了討論。講解了集成學習、多標籤學習、無監督學習和強夜判想化學習等重要的機器學習領域。本書還通過大量的套用實例,闡述了機器學習技術的許多套用技巧。每章結尾對相關機器學習工作都進行了歷史簡評,並附有練習、思考題和上機實驗。

作者簡介

王勇,西安交通大學博士,中國海雄蜜棄狼洋大學信息學院計算機系副教授,碩士生導師,軟體工程教研室主任,海大惠普軟體實驗室主任,中國計算機學會會員、IEEE會員。主要從事軟體工程、軟體過程度量與管理、大數試遙據、統計分析、機器學習與數據挖掘等領域的研究。2011-2012年間在美國南佛羅里達大學做訪問學者。近年來主持或參與包括國家自然科學基金在內的研究課題多項,在包括IEEE Transactions、計算機學報等在內的期刊和會議發表論文多篇。擔任美國Taylor & Francis出版集團 《付付求Encyclopediaof Software Engineering》審稿人,Journal of Internet Technology、British Journal of Applied Science & Technology、《電子學報》審稿人。有十餘年行業軟體開發經驗。

圖書目錄

譯者序
原書前言
第 1章 一個簡單的機器學習任務 //1
1.1 訓練集和分類器 //1
1.2 題外話:爬山搜尋 //4
1.3 機器學習中的爬山法 //6
1.4 分類器的性能 //8
1.5 可用數據的困難 //9
1.6 小結和歷史簡評 //11
1.7 鞏固知識 //11
第 2章 機率:貝葉斯分類器 //14
2.1 單屬性的情況 //14
2.2 離散屬性值的向量 //17
2.3 稀少棄遷享舟事件的機率:利用專家的直覺 //20
2.4 如何處理連續屬性 //23
2.5 高斯鐘形函式:一個標準的 pdf //24
2.6 用高斯函式的集合近似 pdf //26
2.7 小結和歷史簡評 //30
2.8 鞏固知識 //30
第 3章 相似性:最近鄰分類器 //32
3.1 k近鄰法則 //32
3.2 度量相似達講贈性 //34
3.3 不相關屬性與尺度縮放問題 //36
3.4 性能方面的考慮 //39
3.5 加權最近鄰 //41 3.6 移除危險的樣例 //42
3.7 移除多餘的樣例 //44
3.8 小結和歷史簡評 //46
3.9 鞏固知識 //46
第 4章 類間邊界:線性和多項式分類器 //49
4.1 本質 //49
4.2 加法規則:感知機學習 //51
4.3 乘法規則: WINNOW //55
4.4 多於兩個類的域 //58
4.5 多項式分類器 //60
4.6 多項式分類器的特殊方面 //62
4.7 數值域和 SVM //63
4.8 小結和歷史簡評 //65
4.9 鞏固知識 //66
第 5章 人工神經網路 //69
5.1 作為分類器的多層感知機 //69
5.2 神經網路的誤差 //72
5.3 誤差的反向傳播 //73
5.4 多層感知機的特殊方面 //77
5.5 結構問題 //79
5.6 RBF網路 //81
5.7 小結和歷史簡評 //83
5.8 鞏固知識 //84
第 6章 決策樹 //86
6.1 作為分類器的決策樹 //86
6.2 決策樹的歸納學習 //89
6.3 一個屬性承載的信息 //91
6.4 數值屬性的二元劃分 //94
6.5 剪枝 //96
6.6 將決策樹轉換為規則 //99
6.7 小結和歷史簡評 //101
6.8 鞏固知識 //101
第 7章 計算學習理論 //104
7.1 PAC學習 //104
7.2 PAC可學習性的實例 //106
7.3 一些實踐和理論結果 //108
7.4 VC維與可學習性 //110
7.5 小結和歷史簡評 //112
7.6 鞏固知識 //112
第 8章 典型案例 //114
8.1 字元識別 //114
8.2 溢油檢測 //117
8.3 睡眠分類 //119
8.4 腦機界面 //121
8.5 醫療診斷 //124
8.6 文本分類 //126
8.7 小結和歷史簡評 //127
8.8 鞏固知乎汽厚識 //128
第 9章 投票組合簡介 //130
9.1 “Bagging”方法 //130
9.2 “Schapire’s Boosting”方法 //132
9.3 “Adaboost”方法: “Boosting”方法的實用版本 //134
9.4 “Boosting”方法的變種 //138
9.5 該方法的計算優勢 //139
9.6 小結和歷史簡評 //141
9.7 鞏固知識 //141
第 10章 了解一些實踐知識 //143
10.1 學習器的偏好 //143
10.2 不平衡訓練集 //145
10.3 語境相關域 //148
10.4 未知屬性值 //150
10.5 屬性選擇 //152
10.6 雜項 //154
10.7 小結和歷史簡評 //155
10.8 鞏固知識 //156
第 11章 性能評估 //158
11.1 基本性能標準 //158
11.2 精度和查全率 //160
11.3 測量性能的其他方法 //163
11.4 學習曲線和計算開銷 //166
11.5 實驗評估的方法 //167
11.6 小結和歷史簡評 //169
11.7 鞏固知識 //170
第 12章 統計顯著性 //173
12.1 總體抽樣 //173
12.2 從常態分配中獲益 //176
12.3 置信區間 //178
12.4 一個分類器的統計評價 //180
12.5 另外一種統計評價 //182
12.6 機器學習技術的比較 //182
12.7 小結和歷史簡評 //184
12.8 鞏固知識 //185
第 13章 多標籤學習 //186
13.1 經典機器學習框架下的多標籤
問題 //186
13.2 單獨處理每類數據的方法:二元相關法 //188
13.3 分類器鏈 //190
13.4 另一種方法:層疊算法 //191
13.5 層次有序類的簡介 //192
13.6 類聚合 //194
13.7 分類器性能的評價標準 //196
13.8 小結和歷史簡評 //198
13.9 鞏固知識 //199
第 14章 無監督學習 //202
14.1 聚類分析 //202
14.2 簡單算法: k均值 //204
14.3 k均值的高級版 //207
14.4 分層聚集 //209
14.5 自組織特徵映射:簡介 //211
14.6 一些重要的細節 //213
14.7 為什麼要特徵映射 //214
14.8 小結和歷史簡評 //215
14.9 鞏固知識 //216
第 15章 規則集形式的分類器 //218
15.1 由規則描述的類別 //218
15.2 通過序列覆蓋歸納規則集 //220
15.3 謂詞與循環 //222
15.4 更多高級的搜尋運算元 //224
15.5 小結和歷史簡評 //225
15.6 鞏固知識 //225
第 16章 遺傳算法 //227
16.1 基本遺傳算法 //227
16.2 個體模組的實現 //229
16.3 為什麼能起作用 //231
16.4 過早退化的危險 //233
16.5 其他遺傳運算元 //234
16.6 高級版本 //235
16.7 kNN分類器的選擇 //237
16.8 小結和歷史簡評 //239
16.9 鞏固知識 //240
第 17章 強化學習 //241
17.1 如何選出最高獎勵的動作 //241
17.2 遊戲的狀態和動作 //243
17.3 SARSA方法 //245
17.4 小結和歷史簡評 //245
17.5 鞏固知識 //246
參考文獻 //247
4.1 本質 //49
4.2 加法規則:感知機學習 //51
4.3 乘法規則: WINNOW //55
4.4 多於兩個類的域 //58
4.5 多項式分類器 //60
4.6 多項式分類器的特殊方面 //62
4.7 數值域和 SVM //63
4.8 小結和歷史簡評 //65
4.9 鞏固知識 //66
第 5章 人工神經網路 //69
5.1 作為分類器的多層感知機 //69
5.2 神經網路的誤差 //72
5.3 誤差的反向傳播 //73
5.4 多層感知機的特殊方面 //77
5.5 結構問題 //79
5.6 RBF網路 //81
5.7 小結和歷史簡評 //83
5.8 鞏固知識 //84
第 6章 決策樹 //86
6.1 作為分類器的決策樹 //86
6.2 決策樹的歸納學習 //89
6.3 一個屬性承載的信息 //91
6.4 數值屬性的二元劃分 //94
6.5 剪枝 //96
6.6 將決策樹轉換為規則 //99
6.7 小結和歷史簡評 //101
6.8 鞏固知識 //101
第 7章 計算學習理論 //104
7.1 PAC學習 //104
7.2 PAC可學習性的實例 //106
7.3 一些實踐和理論結果 //108
7.4 VC維與可學習性 //110
7.5 小結和歷史簡評 //112
7.6 鞏固知識 //112
第 8章 典型案例 //114
8.1 字元識別 //114
8.2 溢油檢測 //117
8.3 睡眠分類 //119
8.4 腦機界面 //121
8.5 醫療診斷 //124
8.6 文本分類 //126
8.7 小結和歷史簡評 //127
8.8 鞏固知識 //128
第 9章 投票組合簡介 //130
9.1 “Bagging”方法 //130
9.2 “Schapire’s Boosting”方法 //132
9.3 “Adaboost”方法: “Boosting”方法的實用版本 //134
9.4 “Boosting”方法的變種 //138
9.5 該方法的計算優勢 //139
9.6 小結和歷史簡評 //141
9.7 鞏固知識 //141
第 10章 了解一些實踐知識 //143
10.1 學習器的偏好 //143
10.2 不平衡訓練集 //145
10.3 語境相關域 //148
10.4 未知屬性值 //150
10.5 屬性選擇 //152
10.6 雜項 //154
10.7 小結和歷史簡評 //155
10.8 鞏固知識 //156
第 11章 性能評估 //158
11.1 基本性能標準 //158
11.2 精度和查全率 //160
11.3 測量性能的其他方法 //163
11.4 學習曲線和計算開銷 //166
11.5 實驗評估的方法 //167
11.6 小結和歷史簡評 //169
11.7 鞏固知識 //170
第 12章 統計顯著性 //173
12.1 總體抽樣 //173
12.2 從常態分配中獲益 //176
12.3 置信區間 //178
12.4 一個分類器的統計評價 //180
12.5 另外一種統計評價 //182
12.6 機器學習技術的比較 //182
12.7 小結和歷史簡評 //184
12.8 鞏固知識 //185
第 13章 多標籤學習 //186
13.1 經典機器學習框架下的多標籤
問題 //186
13.2 單獨處理每類數據的方法:二元相關法 //188
13.3 分類器鏈 //190
13.4 另一種方法:層疊算法 //191
13.5 層次有序類的簡介 //192
13.6 類聚合 //194
13.7 分類器性能的評價標準 //196
13.8 小結和歷史簡評 //198
13.9 鞏固知識 //199
第 14章 無監督學習 //202
14.1 聚類分析 //202
14.2 簡單算法: k均值 //204
14.3 k均值的高級版 //207
14.4 分層聚集 //209
14.5 自組織特徵映射:簡介 //211
14.6 一些重要的細節 //213
14.7 為什麼要特徵映射 //214
14.8 小結和歷史簡評 //215
14.9 鞏固知識 //216
第 15章 規則集形式的分類器 //218
15.1 由規則描述的類別 //218
15.2 通過序列覆蓋歸納規則集 //220
15.3 謂詞與循環 //222
15.4 更多高級的搜尋運算元 //224
15.5 小結和歷史簡評 //225
15.6 鞏固知識 //225
第 16章 遺傳算法 //227
16.1 基本遺傳算法 //227
16.2 個體模組的實現 //229
16.3 為什麼能起作用 //231
16.4 過早退化的危險 //233
16.5 其他遺傳運算元 //234
16.6 高級版本 //235
16.7 kNN分類器的選擇 //237
16.8 小結和歷史簡評 //239
16.9 鞏固知識 //240
第 17章 強化學習 //241
17.1 如何選出最高獎勵的動作 //241
17.2 遊戲的狀態和動作 //243
17.3 SARSA方法 //245
17.4 小結和歷史簡評 //245
17.5 鞏固知識 //246
參考文獻 //247

相關詞條

熱門詞條

聯絡我們