機器學習從入門到入職——用sklearn與keras搭建人工智慧模型

機器學習從入門到入職——用sklearn與keras搭建人工智慧模型

《機器學習從入門到入職——用sklearn與keras搭建人工智慧模型》是2020年2月電子工業出版社出版的圖書,作者是張威。

基本介紹

  • 書名:機器學習從入門到入職——用sklearn與keras搭建人工智慧模型
  • 作者:張威
  • ISBN:9787121381997 
  • 頁數:472
  • 定價:¥99.0
  • 出版社:電子工業出版社
  • 出版時間:2020年2月
  • 開本:16開
內容簡介,目錄,

內容簡介

近年來機器學習是一個熱門的技術方向,但機器學習本身並不是一門新興學科,而是多門成熟學科(微積分、統計學與機率論、線性代數等)的集合。其知識體系結構龐大而複雜,為了使讀者朋友能夠把握機器學習的清晰的脈絡,本書儘可能從整體上對機器學習的知識架構進行整理,並以Sklearn和Keras等機器學習框架對涉及的相關理論概念進行代碼實現,使理論與實踐相結合。本書分為4個部分:第1章至第3章主要介紹機器學習的概念、開發環境的搭建及模型開發的基本流程等;第4章至第7章涵蓋回歸、分類、聚類、降維的實現原理,以及機器學習框架Sklearn的具體實現與套用;第8章至第12章主要闡述深度學習,如卷積神經網路、生成性對抗網路、循環神經網路的實現原理,以及深度學習框架Keras的具體實現與套用;第13章簡單介紹機器學習崗位的入職技巧。本書可作為機器學習入門者、對機器學習感興趣的群體和相關崗位求職者的參考用書。

目錄

第1章 機器學習概述 1
1.1 什麼是機器學習 2
1.2 人工智慧的發展趨勢 3
1.2.1 人工智慧的發展程度 3
1.2.2 人工智慧的套用 4
第2章 機器學習的準備工作 7
2.1 機器學習的知識準備 8
2.2 機器學習的環境準備 10
2.2.1 安裝編譯語言Python 10
2.2.2 安裝包 11
2.2.3 安裝適用於Python的集成開發環境 12
2.3 機器學習模型開發的工作流程 14
第3章 Sklearn概述 16
3.1 Sklearn的環境搭建與安裝 17
3.2 Sklearn常用類及其結構 18
3.2.1 數據源、數據預處理及數據提取 19
3.2.2 模型建立 20
3.2.3 模型驗證 21
3.2.4 模型調優 21
3.3 本章小結 22
第4章 Sklearn之數據預處理 23
4.1 數據預處理的種類 24
4.2 缺失值處理 24
4.3 數據的規範化 26
4.3.1 縮放規範化 26
4.3.2 標準化 29
4.3.3 範數規範化 31
4.4 非線性變換 34
4.4.1 二值化變換 34
4.4.2 分位數變換 34
4.4.3 冪變換 39
4.4.4 多項式變換 42
4.5 自定義預處理 44
4.6 非結構性數據預處理 45
4.7 文本數據處理 46
4.7.1 分詞技術 46
4.7.2 對已提取數據的處理 47
4.7.3 文本的特徵提取 52
4.8 圖形的特徵提取 57
第5章 Sklearn之建立模型(上) 59
5.1 監督學習概述 60
5.2 線性回歸 61
5.2.1 最小二乘法 62
5.2.2 線性回歸中的收斂方法 64
5.2.3 嶺回歸 65
5.2.4 LASSO回歸 69
5.2.5 彈性網路回歸 79
5.2.6 匹配追蹤 80
5.2.7 多項式回歸 84
5.3 廣義線性模型 86
5.3.1 極大似然估計 87
5.3.2 最大後驗估計 88
5.3.3 貝葉斯估計 89
5.3.4 二項式回歸 91
5.3.5 邏輯回歸 93
5.3.6 貝葉斯回歸 94
5.4 穩健回歸 97
5.4.1 隨機樣本一致法 98
5.4.2 泰爾-森估計 102
5.5 支持向量機 103
5.5.1 硬間隔和軟間隔 104
5.5.2 核函式 106
5.6 高斯過程 110
5.7 梯度下降 115
5.8 決策樹 117
5.8.1 特徵選擇 117
5.8.2 決策樹的剪枝 121
5.9 分類 122
5.9.1 多類別分類 122
5.9.2 多標籤分類 126
第6章 Sklearn之建立模型(下) 128
6.1 無監督學習概述 129
6.2 聚類 129
6.2.1 K-mean聚類 131
6.2.2 均值偏移聚類 136
6.2.3 親和傳播 139
6.2.4 譜聚類 143
6.2.5 層次聚類 151
6.2.6 DBSCAN聚類 155
6.2.7 BIRCH聚類 159
6.2.8 高斯混合模型 164
6.3 降維 168
6.3.1 主成因分析 169
6.3.2 獨立成因分析 175
6.3.3 隱含狄利克雷分布 179
6.3.4 流形學習 185
6.3.5 多維度縮放 186
6.3.6 ISOMAP 189
6.3.7 局部線性嵌入 191
6.3.8 譜嵌入 195
第7章 Sklearn之模型最佳化 198
7.1 模型最佳化 199
7.2 模型最佳化的具體方法 199
7.2.1 訓練樣本對模型的影響 200
7.2.2 訓練樣本問題的解決方案 201
7.2.3 第三方採樣庫imbalanced-learn 203
7.3 過採樣 205
7.3.1 隨機過採樣 205
7.3.2 合成少數類過採樣技術 207
7.3.3 自適應綜合過採樣方法 210
7.4 欠採樣 212
7.4.1 近丟失方法 212
7.4.2 編輯最鄰近方法 216
7.4.3 Tomek連結移除 218
7.4.4 混合採樣方法 219
7.5 調整類別權重 220
7.6 針對模型本身的調優 223
7.7 集成學習 228
7.7.1 投票分類器 229
7.7.2 套袋法 230
7.7.3 隨機森林 232
7.7.4 提升法 234
7.7.5 自適應性提升法 235
7.7.6 梯度提升法 237
7.7.7 套袋法和提升法的比較 239
第8章 Keras主要API及架構介紹 241
8.1 Keras概述 242
8.1.1 為什麼選擇Keras 242
8.1.2 Keras的安裝 243
8.2 序列模型和函式式模型 243
8.2.1 兩種模型的代碼實現 244
8.2.2 模型的其他API 248
8.3 Keras的架構 250
8.4 網路層概述 250
8.4.1 核心層 251
8.4.2 卷積層 252
8.4.3 池化層 253
8.4.4 局部連線層 255
8.4.5 循環層 257
8.4.6 嵌入層 259
8.4.7 融合層 259
8.4.8 高級激活層 261
8.4.9 規範化層 261
8.4.10 噪聲層 261
8.4.11 層級包裝器 262
8.5 配置項 265
8.5.1 損失函式 265
8.5.2 驗證指標 268
8.5.3 初始化函式 269
8.5.4 約束項 271
8.5.5 回調函式 272
第9章 一個神經網路的疊代最佳化 279
9.1 神經網路概述 281
9.2 神經網路的初步實現 283
9.3 感知器層 284
9.3.1 梯度消失/爆炸問題 287
9.3.2 激活函式及其進化 288
9.3.3 激活函式的代碼實現 294
9.3.4 批量規範化 295
9.4 準備訓練模型 299
9.5 定義一個神經網路模型 301
9.6 隱藏層對模型的影響 306
9.7 關於過擬合的情況 310
9.7.1 規則化方法 311
9.7.2 Dropout方法 313
9.8 最佳化器 314
9.8.1 批量梯度下降 316
9.8.2 靈活的學習率 318
9.8.3 適應性梯度法 319
9.8.4 適應性差值法 320
9.8.5 均方差傳播 322
9.8.6 Nesterov加速下降 324
9.8.7 Adam 325
9.8.8 最佳化器之間的對比 326
9.9 模型調優的其他途徑 329
9.10 本章小結 331
第10章 卷積神經網路 333
10.1 卷積神經網路概述 335
10.1.1 局部感受場 335
10.1.2 共享權重和偏差 338
10.1.3 卷積層 339
10.1.4 池化層 342
10.1.5 卷積神經網路的代碼實現 344
10.1.6 卷積神經網路的調優 348
10.2 常見的卷積神經網路 352
10.2.1 LeNet 352
10.2.2 AlexNet 356
10.2.3 VGGNet 359
10.2.4 殘差網路 366
10.2.5 Inception網路模型 373
10.2.6 膠囊網路 378
10.2.7 結語 388
第11章 生成性對抗網路 389
11.1 生成性對抗網路概述 391
11.1.1 生成性對抗網路的原理 391
11.1.2 生成性對抗網路的代碼實現 393
11.2 常見的生成性對抗網路 399
11.2.1 深度卷積生成性對抗網路 399
11.2.2 環境條件生成性對抗網路 406
11.3 自動編碼器 411
11.3.1 自動編碼器的代碼實現 412
11.3.2 變分自動編碼器 414
第12章 循環神經網路 420
12.1 詞嵌入 422
12.1.1 Word2Vec 423
12.1.2 GloVe 428
12.1.3 詞嵌入的代碼實現 429
12.2 循環神經網路概述 430
12.2.1 簡單循環神經網路單元 432
12.2.2 關於循環神經網路的梯度下降 433
12.2.3 長短期記憶單元 435
12.2.4 門控遞歸單元 443
12.2.5 雙向循環神經網路 444
第13章 機器學習的入職準備 448
13.1 人工智慧崗位及求職者的分布 449
13.1.1 機器學習的生態 449
13.1.2 套用場景 450
13.2 機器學習崗位的發展路徑 454
13.2.1 機器學習崗位畫像 454
13.2.2 面試考察什麼 456,第1章 機器學習概述 1
1.1 什麼是機器學習 2
1.2 人工智慧的發展趨勢 3
1.2.1 人工智慧的發展程度 3
1.2.2 人工智慧的套用 4
第2章 機器學習的準備工作 7
2.1 機器學習的知識準備 8
2.2 機器學習的環境準備 10
2.2.1 安裝編譯語言Python 10
2.2.2 安裝包 11
2.2.3 安裝適用於Python的集成開發環境 12
2.3 機器學習模型開發的工作流程 14
第3章 Sklearn概述 16
3.1 Sklearn的環境搭建與安裝 17
3.2 Sklearn常用類及其結構 18
3.2.1 數據源、數據預處理及數據提取 19
3.2.2 模型建立 20
3.2.3 模型驗證 21
3.2.4 模型調優 21
3.3 本章小結 22
第4章 Sklearn之數據預處理 23
4.1 數據預處理的種類 24
4.2 缺失值處理 24
4.3 數據的規範化 26
4.3.1 縮放規範化 26
4.3.2 標準化 29
4.3.3 範數規範化 31
4.4 非線性變換 34
4.4.1 二值化變換 34
4.4.2 分位數變換 34
4.4.3 冪變換 39
4.4.4 多項式變換 42
4.5 自定義預處理 44
4.6 非結構性數據預處理 45
4.7 文本數據處理 46
4.7.1 分詞技術 46
4.7.2 對已提取數據的處理 47
4.7.3 文本的特徵提取 52
4.8 圖形的特徵提取 57
第5章 Sklearn之建立模型(上) 59
5.1 監督學習概述 60
5.2 線性回歸 61
5.2.1 最小二乘法 62
5.2.2 線性回歸中的收斂方法 64
5.2.3 嶺回歸 65
5.2.4 LASSO回歸 69
5.2.5 彈性網路回歸 79
5.2.6 匹配追蹤 80
5.2.7 多項式回歸 84
5.3 廣義線性模型 86
5.3.1 極大似然估計 87
5.3.2 最大後驗估計 88
5.3.3 貝葉斯估計 89
5.3.4 二項式回歸 91
5.3.5 邏輯回歸 93
5.3.6 貝葉斯回歸 94
5.4 穩健回歸 97
5.4.1 隨機樣本一致法 98
5.4.2 泰爾-森估計 102
5.5 支持向量機 103
5.5.1 硬間隔和軟間隔 104
5.5.2 核函式 106
5.6 高斯過程 110
5.7 梯度下降 115
5.8 決策樹 117
5.8.1 特徵選擇 117
5.8.2 決策樹的剪枝 121
5.9 分類 122
5.9.1 多類別分類 122
5.9.2 多標籤分類 126
第6章 Sklearn之建立模型(下) 128
6.1 無監督學習概述 129
6.2 聚類 129
6.2.1 K-mean聚類 131
6.2.2 均值偏移聚類 136
6.2.3 親和傳播 139
6.2.4 譜聚類 143
6.2.5 層次聚類 151
6.2.6 DBSCAN聚類 155
6.2.7 BIRCH聚類 159
6.2.8 高斯混合模型 164
6.3 降維 168
6.3.1 主成因分析 169
6.3.2 獨立成因分析 175
6.3.3 隱含狄利克雷分布 179
6.3.4 流形學習 185
6.3.5 多維度縮放 186
6.3.6 ISOMAP 189
6.3.7 局部線性嵌入 191
6.3.8 譜嵌入 195
第7章 Sklearn之模型最佳化 198
7.1 模型最佳化 199
7.2 模型最佳化的具體方法 199
7.2.1 訓練樣本對模型的影響 200
7.2.2 訓練樣本問題的解決方案 201
7.2.3 第三方採樣庫imbalanced-learn 203
7.3 過採樣 205
7.3.1 隨機過採樣 205
7.3.2 合成少數類過採樣技術 207
7.3.3 自適應綜合過採樣方法 210
7.4 欠採樣 212
7.4.1 近丟失方法 212
7.4.2 編輯最鄰近方法 216
7.4.3 Tomek連結移除 218
7.4.4 混合採樣方法 219
7.5 調整類別權重 220
7.6 針對模型本身的調優 223
7.7 集成學習 228
7.7.1 投票分類器 229
7.7.2 套袋法 230
7.7.3 隨機森林 232
7.7.4 提升法 234
7.7.5 自適應性提升法 235
7.7.6 梯度提升法 237
7.7.7 套袋法和提升法的比較 239
第8章 Keras主要API及架構介紹 241
8.1 Keras概述 242
8.1.1 為什麼選擇Keras 242
8.1.2 Keras的安裝 243
8.2 序列模型和函式式模型 243
8.2.1 兩種模型的代碼實現 244
8.2.2 模型的其他API 248
8.3 Keras的架構 250
8.4 網路層概述 250
8.4.1 核心層 251
8.4.2 卷積層 252
8.4.3 池化層 253
8.4.4 局部連線層 255
8.4.5 循環層 257
8.4.6 嵌入層 259
8.4.7 融合層 259
8.4.8 高級激活層 261
8.4.9 規範化層 261
8.4.10 噪聲層 261
8.4.11 層級包裝器 262
8.5 配置項 265
8.5.1 損失函式 265
8.5.2 驗證指標 268
8.5.3 初始化函式 269
8.5.4 約束項 271
8.5.5 回調函式 272
第9章 一個神經網路的疊代最佳化 279
9.1 神經網路概述 281
9.2 神經網路的初步實現 283
9.3 感知器層 284
9.3.1 梯度消失/爆炸問題 287
9.3.2 激活函式及其進化 288
9.3.3 激活函式的代碼實現 294
9.3.4 批量規範化 295
9.4 準備訓練模型 299
9.5 定義一個神經網路模型 301
9.6 隱藏層對模型的影響 306
9.7 關於過擬合的情況 310
9.7.1 規則化方法 311
9.7.2 Dropout方法 313
9.8 最佳化器 314
9.8.1 批量梯度下降 316
9.8.2 靈活的學習率 318
9.8.3 適應性梯度法 319
9.8.4 適應性差值法 320
9.8.5 均方差傳播 322
9.8.6 Nesterov加速下降 324
9.8.7 Adam 325
9.8.8 最佳化器之間的對比 326
9.9 模型調優的其他途徑 329
9.10 本章小結 331
第10章 卷積神經網路 333
10.1 卷積神經網路概述 335
10.1.1 局部感受場 335
10.1.2 共享權重和偏差 338
10.1.3 卷積層 339
10.1.4 池化層 342
10.1.5 卷積神經網路的代碼實現 344
10.1.6 卷積神經網路的調優 348
10.2 常見的卷積神經網路 352
10.2.1 LeNet 352
10.2.2 AlexNet 356
10.2.3 VGGNet 359
10.2.4 殘差網路 366
10.2.5 Inception網路模型 373
10.2.6 膠囊網路 378
10.2.7 結語 388
第11章 生成性對抗網路 389
11.1 生成性對抗網路概述 391
11.1.1 生成性對抗網路的原理 391
11.1.2 生成性對抗網路的代碼實現 393
11.2 常見的生成性對抗網路 399
11.2.1 深度卷積生成性對抗網路 399
11.2.2 環境條件生成性對抗網路 406
11.3 自動編碼器 411
11.3.1 自動編碼器的代碼實現 412
11.3.2 變分自動編碼器 414
第12章 循環神經網路 420
12.1 詞嵌入 422
12.1.1 Word2Vec 423
12.1.2 GloVe 428
12.1.3 詞嵌入的代碼實現 429
12.2 循環神經網路概述 430
12.2.1 簡單循環神經網路單元 432
12.2.2 關於循環神經網路的梯度下降 433
12.2.3 長短期記憶單元 435
12.2.4 門控遞歸單元 443
12.2.5 雙向循環神經網路 444
第13章 機器學習的入職準備 448
13.1 人工智慧崗位及求職者的分布 449
13.1.1 機器學習的生態 449
13.1.2 套用場景 450
13.2 機器學習崗位的發展路徑 454
13.2.1 機器學習崗位畫像 454
13.2.2 面試考察什麼 456"

相關詞條

熱門詞條

聯絡我們