《機器學習算法的數學解析與Python實現》是一部讓讀者零基礎掌握機器學習算法精髓,快速進入人工智慧開發領域的著作,由機械工業出版社出版。
基本介紹
- 書名:機器學習算法的數學解析與Python實現
- 作者:莫凡 編著
- ISBN:978-7-111-64260-2
- 頁數:216
- 定價:89.00元
- 出版社:機械工業出版社
- 出版時間:2020年1月
- 裝幀:平裝
- 開本:16
內容簡介:,作者簡介,目錄,
內容簡介:
本書以機器學戒榜匙愚習的算法為主線,深入剖析算法的概念和數學原理,以通俗形象的語言進行講解,讓讀者無須了解太多前置數學知識,就能看懂數學公式所表達的意思,從而快速掌握機器學習的思想和原理。本書首先介紹機器學習基本概念及工具,然後從概念、原理、Python實現、套用場景幾個方面,詳細剖析機器學習中主要的算法,如線性回歸算法、Logistic回歸算法、KNN算法、樸素貝葉斯蒸詢戶朵算法、決策樹算法、支持向量機算法、K-means聚類算法、神經網路、集成學習方法等。
作者簡介
莫凡
新技術深度愛好者,曾經從事信息安全前沿技術跟蹤研究和數據分析工作,在各類信息安全類技術期刊雜誌發表文章五十餘篇,現轉為投身高端知識“白菜化”項目,希望能讓將更多聽起來高大上的名詞沾一沾人間煙火,成為日常中生活真正用得上的知識。
目錄
前言
第1章 機器學習概述 1
1.1 什麼是機器學習 1
1.2 機器學習的幾個需求層次 3
1.3 機器學習的基本殼兆尋原理 5
1.4 機器學習的基本概念 7
1.4.1 書中用到的術語介紹 7
1.4.2 機器學習的頌旬嬸基本模式 11
1.4.3 最佳化方法 12
1.5 機器學習問題分類 14
1.6 常用的機器學習算法 15
1.7 機器學習算法的性能衡量指標 16
1.8 數據對算法結果的影響 18
第2章 機器學習所需的環境 20
2.1 常用環境 20
2.2 Python簡介 21
2.2.1 Python的安裝 23
2.2.2 Python的基本用法 24
2.3 Numpy簡介 25
2.3.1 Numpy的安裝 26
2.3.2 Numpy的基本用法 26
2.4 Scikit-Learn簡介 27
2.4.1 Scikit-Learn的安裝 28
2.4.2 Scikit-Learn的基本用法 28
2.5 Pandas簡介 29
2.5.1 Pandas的安裝 30
2.5.2 Pandas的基本用法 31
第3章 線性回歸算法 33
3.1 線性回歸:“鋼鐵直男”解決回歸問題的正確方法 33
3.1.1 用於預測未來的回歸問題 35
3.1.2 怎樣預測未來 38
3.1.3 線性方程的“直男”本性 40
3.1.4 最簡單的回歸問題—線性回歸問題 44
3.2 線性請棄回歸的算法原理 46
3.2.1 線性回歸算法的基本思路 46
3.2.2 線性回歸算法的數學解析 48
3.2.3 線性回歸算法的具體步驟 53
3.3 在Python中使用線性回歸算法 54
3.4 線性回歸算法的使用場景 60
第4章 Logistic回歸分類算法 61
4.1 Logistic回歸:換上“S型曲線馬甲”的線性回歸 61
4.1.1 分類問題:選擇困難症患者的自我救贖 63
4.1.2 Logistic函式介紹 66
4.1.3 此回歸非彼回歸:“LR”辨析 70
4.2 Logistic回歸的算法原理 71
4.2.1 Logistic回歸算法的基本思路 71
4.2.2 Logistic回歸算法的數學解析 74
4.2.3 Logistic回歸算法的具體步驟 78
4.3 在Python中使用Logistic回歸算法 78
4.4 Logistic回歸算法的使用場景 81
第5章 KNN分類算腳駝辯法 82
5.1 KNN分類算法:用多數表決進行分類 82
5.1.1 用“同類相吸”的辦法解決分類問題 84
5.1.2 KNN分類算法的基本方法:多數表決 86
5.1.3 表決權問題 89
5.1.4 KNN的具體含義 89
5.2 KNN分類的算法原理 90
5.2.1 KNN分類算法的基本思路 90
5.2.2 KNN分類算法的數學解析 93
5.2.3 KNN分類算法的具體步驟 94
5.3 在Python中使用KNN分類算奔定墓法 95
5.4 KNN分類算法的使用場景 96
第6章 樸素貝葉斯分類算法 98
6.1 樸素貝葉斯:用骰子選擇 98
6.1.1 從統計角度看分類問題 99
6.1.2 貝葉斯公式的基本思想 102
6.1.3 用貝葉斯公式進行選擇 104
6.2 樸素貝葉斯分類的算法原理 106
6.2.1 樸素貝葉斯分類算法的基本思路 106
6.2.2 樸素貝葉斯分類算法的數學解析 108
6.2.3 樸素貝葉斯分類算法的具體步驟 111
6.3 在Python中使用樸素貝葉斯分類算法 111
6.4 樸素貝葉斯分類算法的使用場景 112
第7章 決策樹分類算法 114
7.1 決策樹分類:用“老朋友”if-else進行選擇 114
7.1.1 程式設計師的選擇觀:if-else 116
7.1.2 如何種植一棵有靈魂的“樹” 118
7.1.3 決策條件的選擇藝術 119
7.1.4 決策樹的剪枝問題 122
7.2 決策樹分類的算法原理 125
7.2.1 決策樹分類算法的基本思路 125
7.2.2 決策樹分類算法的數學解析 127
7.2.3 決策樹分類算法的具體步驟 133
7.3 在Python中使用決策樹分類算法 134
7.4 決策樹分類算法的使用場景 135
第8章 支持向量機分類算法 137
8.1 支持向量機:線性分類器的“王者” 137
8.1.1 距離是不同類別的天然間隔 139
8.1.2 何為“支持向量” 140
8.1.3 從更高維度看“線性不可分” 142
8.2 支持向量機分類的算法原理 146
8.2.1 支持向量機分類算法的基本思路 146
8.2.2 支持向量機分類算法的數學解析 150
8.2.3 支持向量機分類算法的具體步驟 153
8.3 在Python中使用支持向量機分類算法 154
8.4 支持向量機分類算法的使用場景 156
第9章 K-means聚類算法 157
9.1 用投票表決實現“物以類聚” 157
9.1.1 聚類問題就是“物以類聚”的實施問題 159
9.1.2 用“K”來決定歸屬類別 162
9.1.3 度量“相似”的距離 164
9.1.4 聚類問題中的多數表決 165
9.2 K-means聚類的算法原理 168
9.2.1 K-means聚類算法的基本思路 168
9.2.2 K-means聚類算法的數學解析 169
9.2.3 K-means聚類算法的具體步驟 170
9.3 在Python中使用K-means聚類算法 171
9.4 K-means聚類算法的使用場景 172
第10章 神經網路分類算法 174
10.1 用神經網路解決分類問題 174
10.1.1 神經元的“內心世界” 177
10.1.2 從神經元看分類問題 180
10.1.3 神經網路的“細胞”:人工神經元 181
10.1.4 構成網路的魔力 184
10.1.5 神經網路與深度學習 188
10.2 神經網路分類的算法原理 188
10.2.1 神經網路分類算法的基本思路 188
10.2.2 神經網路分類算法的數學解析 190
10.2.3 神經網路分類算法的具體步驟 193
10.3 在Python中使用神經網路分類算法 194
10.4 神經網路分類算法的使用場景 195
第11章 集成學習方法 197
11.1 集成學習方法:三個臭皮匠賽過諸葛亮 197
11.1.1 集成學習方法與經典機器學習算法的關係 198
11.1.2 集成學習的主要思想 199
11.1.3 幾種集成結構 200
11.2 集成學習方法的具體實現方式 202
11.2.1 Bagging算法 202
11.2.2 Boosting算法 202
11.2.3 Stacking算法 202
11.3 在Python中使用集成學習方法 203
11.4 集成學習方法的使用場景 205
3.4 線性回歸算法的使用場景 60
第4章 Logistic回歸分類算法 61
4.1 Logistic回歸:換上“S型曲線馬甲”的線性回歸 61
4.1.1 分類問題:選擇困難症患者的自我救贖 63
4.1.2 Logistic函式介紹 66
4.1.3 此回歸非彼回歸:“LR”辨析 70
4.2 Logistic回歸的算法原理 71
4.2.1 Logistic回歸算法的基本思路 71
4.2.2 Logistic回歸算法的數學解析 74
4.2.3 Logistic回歸算法的具體步驟 78
4.3 在Python中使用Logistic回歸算法 78
4.4 Logistic回歸算法的使用場景 81
第5章 KNN分類算法 82
5.1 KNN分類算法:用多數表決進行分類 82
5.1.1 用“同類相吸”的辦法解決分類問題 84
5.1.2 KNN分類算法的基本方法:多數表決 86
5.1.3 表決權問題 89
5.1.4 KNN的具體含義 89
5.2 KNN分類的算法原理 90
5.2.1 KNN分類算法的基本思路 90
5.2.2 KNN分類算法的數學解析 93
5.2.3 KNN分類算法的具體步驟 94
5.3 在Python中使用KNN分類算法 95
5.4 KNN分類算法的使用場景 96
第6章 樸素貝葉斯分類算法 98
6.1 樸素貝葉斯:用骰子選擇 98
6.1.1 從統計角度看分類問題 99
6.1.2 貝葉斯公式的基本思想 102
6.1.3 用貝葉斯公式進行選擇 104
6.2 樸素貝葉斯分類的算法原理 106
6.2.1 樸素貝葉斯分類算法的基本思路 106
6.2.2 樸素貝葉斯分類算法的數學解析 108
6.2.3 樸素貝葉斯分類算法的具體步驟 111
6.3 在Python中使用樸素貝葉斯分類算法 111
6.4 樸素貝葉斯分類算法的使用場景 112
第7章 決策樹分類算法 114
7.1 決策樹分類:用“老朋友”if-else進行選擇 114
7.1.1 程式設計師的選擇觀:if-else 116
7.1.2 如何種植一棵有靈魂的“樹” 118
7.1.3 決策條件的選擇藝術 119
7.1.4 決策樹的剪枝問題 122
7.2 決策樹分類的算法原理 125
7.2.1 決策樹分類算法的基本思路 125
7.2.2 決策樹分類算法的數學解析 127
7.2.3 決策樹分類算法的具體步驟 133
7.3 在Python中使用決策樹分類算法 134
7.4 決策樹分類算法的使用場景 135
第8章 支持向量機分類算法 137
8.1 支持向量機:線性分類器的“王者” 137
8.1.1 距離是不同類別的天然間隔 139
8.1.2 何為“支持向量” 140
8.1.3 從更高維度看“線性不可分” 142
8.2 支持向量機分類的算法原理 146
8.2.1 支持向量機分類算法的基本思路 146
8.2.2 支持向量機分類算法的數學解析 150
8.2.3 支持向量機分類算法的具體步驟 153
8.3 在Python中使用支持向量機分類算法 154
8.4 支持向量機分類算法的使用場景 156
第9章 K-means聚類算法 157
9.1 用投票表決實現“物以類聚” 157
9.1.1 聚類問題就是“物以類聚”的實施問題 159
9.1.2 用“K”來決定歸屬類別 162
9.1.3 度量“相似”的距離 164
9.1.4 聚類問題中的多數表決 165
9.2 K-means聚類的算法原理 168
9.2.1 K-means聚類算法的基本思路 168
9.2.2 K-means聚類算法的數學解析 169
9.2.3 K-means聚類算法的具體步驟 170
9.3 在Python中使用K-means聚類算法 171
9.4 K-means聚類算法的使用場景 172
第10章 神經網路分類算法 174
10.1 用神經網路解決分類問題 174
10.1.1 神經元的“內心世界” 177
10.1.2 從神經元看分類問題 180
10.1.3 神經網路的“細胞”:人工神經元 181
10.1.4 構成網路的魔力 184
10.1.5 神經網路與深度學習 188
10.2 神經網路分類的算法原理 188
10.2.1 神經網路分類算法的基本思路 188
10.2.2 神經網路分類算法的數學解析 190
10.2.3 神經網路分類算法的具體步驟 193
10.3 在Python中使用神經網路分類算法 194
10.4 神經網路分類算法的使用場景 195
第11章 集成學習方法 197
11.1 集成學習方法:三個臭皮匠賽過諸葛亮 197
11.1.1 集成學習方法與經典機器學習算法的關係 198
11.1.2 集成學習的主要思想 199
11.1.3 幾種集成結構 200
11.2 集成學習方法的具體實現方式 202
11.2.1 Bagging算法 202
11.2.2 Boosting算法 202
11.2.3 Stacking算法 202
11.3 在Python中使用集成學習方法 203
11.4 集成學習方法的使用場景 205