實用機器學習(2017年3月人民郵電出版社出版的圖書)

實用機器學習(2017年3月人民郵電出版社出版的圖書)

本詞條是多義詞,共2個義項
更多義項 ▼ 收起列表 ▲

《實用機器學習》是2017年3月人民郵電出版社出版的圖書,作者是孫亮、黃倩。

基本介紹

  • 中文名:實用機器學習
  • 作者:孫亮 黃倩
  • 出版社:人民郵電出版社
  • 出版時間:2017年3月
  • 頁數:338 頁
  • 定價:79.00
  • 開本:16 開
  • 裝幀:平裝
  • ISBN:9787115446466
  • 語種:中文版
內容簡介,作者簡介,圖書目錄,

內容簡介

大數據時代為機器學習的套用提供了廣闊的空間,各行各業涉及數據分析的工作都需要使用機器學習算法。本書圍繞實際數據分析的流程展開,著重介紹數據探索、數據預處理和常用的機器學習算法模型。本書從解決實際問題的角度出發,介紹回歸算法、分類算法、推薦算法、排序算法和集成學習算法。在介紹每種機器學習算法模型時,書中不但闡述基本原理,而且討論模型的評價與選擇。為方便讀者學習各種算法,本書介紹了R語言中相應的軟體包並給出了示例程式。
本書的一大特色就是貼近工程實踐。首先,本書僅側重介紹當前工業界常用的機器學習算法,而不追求知識內容的覆蓋面;其次,本書在介紹每類機器學習算法時,力求通俗易懂地闡述算法思想,而不追求理論的深度,讓讀者藉助代碼獲得直觀的體驗。

作者簡介

孫亮,阿里巴巴數據科學與技術研究院高級專家。曾任微軟Azure機器學習(Azure Machine Learning)部門高級數據科學家,先後畢業於南京大學計算機系(1999-2003)、中國科學院軟體研究所(2003-2006)、美國亞利桑那州立大學計算機系(2006-2011),研究興趣包括機器學習、數據挖掘及其實際套用等。近年來參加了KDD Cup、Heritage HealthPrize等多項數據挖掘競賽並多次取得優異成績。在IEEE T-PAMI、NIPS、ICML、SIGKDD等機器學習領域的知名國際期刊和國際會議上發表論文近20篇,著有機器學習英文專著1部。
黃倩,河海大學副研究員,先後畢業於南京大學計算機系(1999-2003)、中國科學院計算技術研究所(2003-2010),研究興趣包括多媒體大數據處理、機器學習、雲計算等。參加過多個973、863、國家自然科學基金項目的研究,參與過AVS、H.265/HEVC等國內外視頻壓縮標準的制訂。現主持包括國家自然科學基金在內的多個國家、省市級項目,並獲南京市江寧區首批高層次創業人才“創聚工程”項目資助。在相關領域的知名國際期刊和國際會議上發表論文逾20篇,出版譯著4本,參編專著1部。

圖書目錄

第1章 引論 1
1.1 什麼是機器學習 1
1.2 機器學習算法的分類 2
1.3 實際套用 3
1.3.1 病人住院時間預測 3
1.3.2 信用分數估計 4
1.3.3 Netflix上的影片推薦 4
1.3.4 酒店推薦 5
1.3.5 討論 6
1.4 本書概述 7
1.4.1 本書結構 9
1.4.2 閱讀材料及其他資源 10
第2章 R語言 12
2.1 R的簡單介紹 12
2.2 R的初步體驗 13
2.3 基本語法 14
2.3.1 語句 14
2.3.2 函式 17
2.4 常用數據結構 19
2.4.1 向量 19
2.4.2 因子 23
2.4.3 矩陣 24
2.4.4 數據框 26
2.4.5 列表 29
2.4.6 下標系統 33
2.5 公式對象和apply函式 34
2.6 R軟體包 36
2.6.1 軟體包的安裝 37
2.6.2 軟體包的使用 38
2.6.3 軟體包的開發 38
2.7 網路資源 38
第3章 數學基礎 39
3.1 機率 39
3.1.1 基本概念 39
3.1.2 基本公式 40
3.1.3 常用分布 42
3.1.4 隨機向量及其分布 43
3.1.5 隨機變數的數字特徵 46
3.1.6 隨機向量的數字特徵 48
3.2 統計 49
3.2.1 常用數據特徵 49
3.2.2 參數估計 52
3.3 矩陣 54
3.3.1 基本概念 54
3.3.2 基本運算 56
3.3.3 特徵值與特徵向量 57
3.3.4 矩陣分解 60
3.3.5 主成分分析 62
3.3.6 R中矩陣的計算 68
第4章 數據探索和預處理 74
4.1 數據類型 74
4.2 數據探索 75
4.2.1 常用統計量 76
4.2.2 使用R實際探索數據 76
4.3 數據預處理 82
4.3.1 缺失值的處理 82
4.3.2 數據的標準化 83
4.3.3 刪除已有變數 85
4.3.4 數據的變換 86
4.3.5 構建新的變數:啞變數 86
4.3.6 離群數據的處理 88
4.4 數據可視化 89
4.4.1 直方圖 89
4.4.2 柱狀圖 92
4.4.3 莖葉圖 95
4.4.4 箱線圖 96
4.4.5 散點圖 100
第5章 回歸分析 104
5.1 回歸分析的基本思想 104
5.2 線性回歸和最小二乘法 105
5.2.1 最小二乘法的幾何解釋 106
5.2.2 線性回歸和極大似然估計 107
5.3 嶺回歸和Lasso 108
5.3.1 嶺回歸 108
5.3.2 Lasso與稀疏解 110
5.3.3 Elastic Net 114
5.4 回歸算法的評價和選取 114
5.4.1 均方差和均方根誤差 114
5.4.2 可決係數 114
5.4.3 偏差-方差權衡 115
5.5 案例分析 118
5.5.1 數據導入和探索 118
5.5.2 數據預處理 120
5.5.3 將數據集分成訓練集和測試集 121
5.5.4 建立一個簡單的線性回歸模型 121
5.5.5 建立嶺回歸和Lasso模型 122
5.5.6 選取合適的模型 124
5.5.7 構造新的變數 126
5.6 小結 126
第6章 分類算法 127
6.1 分類的基本思想 127
6.2 決策樹 130
6.2.1 基本原理 130
6.2.2 決策樹學習 131
6.2.3 過擬合和剪枝 138
6.2.4 實際使用 139
6.2.5 討論 148
6.3 邏輯回歸 148
6.3.1 sigmoid函式的性質 148
6.3.2 通過極大似然估計來估計參數 149
6.3.3 牛頓法 151
6.3.4 正則化項的引入 153
6.3.5 實際使用 154
6.4 支持向量機 161
6.4.1 基本思想:最大化分類間隔 161
6.4.2 最大分類間隔的數學表示 163
6.4.3 如何處理線性不可分的數據 164
6.4.4 Hinge損失函式 166
6.4.5 對偶問題 168
6.4.6 非線性支持向量機和核技巧 170
6.4.7 實際使用 173
6.5 損失函式和不同的分類算法 175
6.5.1 損失函式 175
6.5.2 正則化項 178
6.6 交叉檢驗和caret包 180
6.6.1 模型選擇和交叉檢驗 180
6.6.2 在R中實現交叉檢驗以及caret包 182
6.7 分類算法的評價和比較 192
6.7.1 準確率 193
6.7.2 混淆矩陣 193
6.7.3 精確率、召回率和F1度量 195
6.7.4 ROC曲線和AUC 196
6.7.5 R中評價標準的計算 199
6.8 不平衡分類問題 201
6.8.1 使用不同的算法評價標準 201
6.8.2 樣本權值 201
6.8.3 取樣方法 202
6.8.4 代價敏感學習 203
第7章 推薦算法 205
7.1 推薦系統基礎 205
7.1.1 常用符號 208
7.1.2 推薦算法的評價標準 209
7.2 基於內容的推薦算法 210
7.3 基於矩陣分解的算法 211
7.3.1 無矩陣分解的基準方法 211
7.3.2 基於奇異值分解的推薦算法 212
7.3.3 基於SVD推薦算法的變體 216
7.4 基於鄰域的推薦算法 222
7.4.1 基於用戶的鄰域推薦算法 223
7.4.2 基於商品的鄰域推薦算法 225
7.4.3 混合算法 226
7.4.4 相似度的計算 227
7.5 R中recommenderlab的實際 使用 232
7.6 推薦算法的評價和選取 250
第8章 排序學習 253
8.1 排序學習簡介 253
8.1.1 解決排序問題的基本思路 254
8.1.2 構造特徵 255
8.1.3 獲取相關度分數 256
8.1.4 數學符號 257
8.2 排序算法的評價 257
8.2.1 MAP 258
8.2.2 DCG 260
8.2.3 NDCG 261
8.2.4 討論 261
8.3 逐點方法 262
8.3.1 基於SVM的逐點排序方法 263
8.3.2 逐點方法討論 264
8.4 逐對方法 265
8.4.1 Ranking SVM算法 265
8.4.2 IR-SVM算法 266
8.4.3 RankNet算法 267
8.4.4 LambdaRank算法 271
8.4.5 LambdaMART算法 273
8.5 逐列方法 279
8.5.1 SVMmap算法 279
8.5.2 討論 283
第9章 集成學習 284
9.1 集成學習簡介 284
9.2 bagging簡介 285
9.3 隨機森林 289
9.3.1 訓練隨機森林的基本流程 289
9.3.2 利用隨機森林估計變數的 重要性 290
9.3.3 隨機森林的實際使用 291
9.4 boosting簡介 300
9.4.1 boosting和指數損失函式 301
9.4.2 AdaBoost算法 302
9.4.3 AdaBoost的實際使用 306
9.4.4 討論 311
9.5 提升決策樹和梯度提升算法 311
9.5.1 提升決策樹和梯度提升算法的基本原理 311
9.5.2 如何避免過擬合 315
9.5.3 gbm包的實際使用 318
9.5.4 討論 327
9.6 學習器的聚合及stacking 328
9.6.1 簡單平均 328
9.6.2 加權平均 329
9.6.3 stacking的基本思想及套用 329
9.7 小結 331
參考文獻 332
索引 334

相關詞條

熱門詞條

聯絡我們