Python機器學習實戰:基於Scikit-learn與PyTorch的神經網路解決方案

《Python機器學習實戰:基於Scikit-learn與PyTorch的神經網路解決方案》是2023年9月1日清華大學出版社出版的圖書,作者:[印]阿什溫·帕揚卡 (Ashwin Pajankar) 阿迪亞·喬希 (Aditya Joshi)著 歐拉 譯。

基本介紹

  • 中文名:Python機器學習實戰:基於Scikit-learn與PyTorch的神經網路解決方案
  • 作者:[印]阿什溫·帕揚卡 (Ashwin Pajankar)、[印]阿迪亞·喬希 (Aditya Joshi)
  • 譯者:歐拉
  • 出版時間:2023年9月1日
  • 出版社:清華大學出版社
  • ISBN:9787302642978
  • 定價:99 元
  • 印次:1-1
  • 印刷日期:2023.09.19
內容簡介,圖書目錄,

內容簡介

《Python機器學習實戰:基於Scikit-learn與PyTorch的神經網路解決方案》基於作者多年的積累,通過概念及其解釋、Python代碼示例及其解釋和代碼輸出,特別針對零基礎讀者精心設計了這本機器學習進階指南。全書包含3部分16章的內容,在介紹完編程和數據處理基礎之後,探討了監督學習(如線性回歸、邏輯回歸及決策樹、樸素貝葉斯和支持向量機)、集成學習以及無監督學習(如降維和聚類等)。值得一提的是,書的最後講到了神經網路和深度學習的基本思想,探討了人工神經網路、卷積神經網路和遞歸神經網路。 《Python機器學習實戰:基於Scikit-learn與PyTorch的神經網路解決方案》適合零基礎且希望了解和掌握機器學習的讀者閱讀與參考。

圖書目錄

目  錄
第Ⅰ部分 PYTHON機器學習
第1章 Python 3和Jupyter Notebook入門 3
1.1 Python概述 4
1.1.1 Python程式語言的歷史 4
1.1.2 Python程式語言的哲學 4
1.1.3 Python的使用範圍 5
1.2 安裝Python 6
1.2.1 在Linux 發行版上安裝 Python 7
1.2.2 在macOS 上安裝Python 7
1.3 Python模式 7
1.3.1 互動模式 7
1.3.2 腳本模式 11
1.4 Pip3工具 13
1.5 科學Python生態系統 14
1.6 Python的實現和發行版 14
1.7 Anaconda發行版 15
1.8 小結 16
第2章 NumPy入門 17
2.1 開始使用NumPy 18
2.2 Ndarray的索引 20
2.3 Ndarray的屬性 22
2.4 NumPy常量 23
2.5 小結 24
第3章 數據可視化入門 25
3.1 用於創建Ndarray的NumPy例程 26
3.2 Matplotlib數據可視化 28
3.3 小結 34
第4章 Pandas入門 35
4.1 Pandas基礎知識 36
4.2 Pandas中的Series 36
4.3 Pandas中的數據框架 38
4.4 在數據框架中實現數據的可視化 40
4.5 小結 46
第Ⅱ部分 機器學習方法
第5章 Scikit-learn機器學習概述 49
5.1 從數據中學習 50
5.1.1 監督式學習 50
5.1.2 無監督學習 51
5.2 機器學習系統的結構 52
5.2.1 問題理解 53
5.2.2 數據收集 53
5.2.3 數據標註和數據準備 53
5.2.4 數據整理 53
5.2.5 模型的開發、訓練和評估 54
5.2.6 模型的部署 54
5.3 Scikit-Learn 55
5.4 安裝Scikit-Learn 55
5.5 了解API 56
5.6 第一個Scikit-learn實驗 57
5.7 小結 60
第6章 為機器學習準備數據 61
6.1 數據變數的類型 62
6.1.1 名目數據 62
6.1.2 次序數據 62
6.1.3 等距數據 63
6.1.4 等比數據 63
6.2 轉換 63
6.2.1 轉換名目屬性 64
6.2.2 轉換有序屬性 66
6.3 歸一化 67
6.3.1 線性函式歸一化 68
6.3.2 標準縮放 69
6.4 預處理文本 70
6.4.1 準備NLTK 70
6.4.2 NLP流水線的5個步驟 71
6.4.3 詞幹提取和詞形還原 72
6.4.4 移除停用詞 73
6.4.5 準備詞向量 73
6.5 預處理圖像 75
6.6 小結 77
第7章 初探監督式學習方法 79
7.1 線性回歸 80
7.2 邏輯回歸 86
7.2.1 表達式機率的線與曲線的比較 87
7.2.1 學習參數 87
7.2.2 可視化決策邊界 90
7.3 決策樹 91
7.3.1 構建決策樹 92
7.3.2 Python中的決策樹 93
7.4 小結 96
第8章 對監督式學習進行調試 97
8.1 訓練和測試過程 98
8.2 性能的衡量標準 98
8.2.1 混淆矩陣 99
8.2.2 精確率 100
8.2.3 準確率 100
8.2.3 F值 100
8.2.4 Python中的性能指標 101
8.3 交叉驗證 103
8.3.1 為什麼要進行交叉驗證 104
8.3.2 使用Python進行交叉驗證 105
8.4 ROC曲線 106
8.5 過擬合和正則化 109
8.5.1 偏差和方差 112
8.5.2 正則化 113
8.6 超參數調優 116
8.7 小結 120
第9章 再談監督學習方法 121
9.1 樸素貝葉斯 122
9.1.1 貝葉斯定理 122
9.1.2 條件機率 123
9.1.3 樸素貝葉斯的運作方式 123
9.1.4 多項樸素貝葉斯 124
9.1.5 Python中的樸素貝葉斯 124
9.2 支持向量機 126
9.2.1 SVM的運作方式 127
9.2.2 非線性分類 128
9.2.3 SVM中的核技巧 129
9.2.4 Python中的支持向量機 130
9.3 小結 134
第10章 集成學習方法 135
10.1 Bagging算法和隨機森林 136
10.2 Boosting算法 140
10.3 Stacking集成 146
10.4 小結 150
第11章 無監督學習方法 151
11.1 降維 152
11.1.1 了解維數災難 152
11.1.2 主成分分析 153
11.1.3 Python中的主成分分析 154
11.2 聚類 157
11.2.1 使用k-均值進行聚類 158
11.2.2 Python中的k-均值 158
11.2.3 什麼是正確的k 161
11.2.4 聚類之圖像分割 162
11.2.5 使用DBSCAN進行聚類 165
11.3 頻繁模式挖掘 168
11.3.1 購物籃分析 168
11.3.2 Python中的頻繁模式挖掘 169
11.4 小結 172
第Ⅲ部分 神經網路和深度學習
第12章 神經網路和PyTorch基礎 175
12.1 安裝PyTorch 177
12.2  PyTorch的基礎知識 177
12.2.1 創建張量 177
12.2.2 張量操作 179
12.3 感知器 181
12.4 人工神經網路 185
12.5 小結 186
第13章 前饋神經網路 187
13.1 前饋神經網路 188
13.1.1 訓練神經網路 189
13.1.2 損失函式 193
13.2 使用人工神經網路進行回歸 195
13.3 激活函式 198
13.3.1 ReLU 激活函式 198
13.3.2 Sigmoid 激活函式 199
13.3.3 tanh激活函式 200
13.4 多層人工神經網路 200
13.4.1 PyTorch中的神經網路(NN)類 206
13.4.2 過擬合和Dropout 208
13.5 分類手寫數字 209
13.6 小結 214
第14章 卷積神經網路 215
14.1 卷積運算 216
14.2 CNN的結構 219
14.3 在PyTorch中使用卷積神經網路 221
14.4 使用CNN進行圖像分類 223
14.5 卷積神經網路的深度網路 233
14.5 小結 234
第15章 循環神經網路 235
15.1 循環單元 236
15.2 RNN的類型 238
15.2.1 一對一 238
15.2.2 一對多 238
15.2.3 多對一 238
15.2.4 多對多 239
15.3 Python中的RNN 239
15.4 長短期記憶 240
15.4.1 LSTM單元 241
15.4.2 時間序列預測 242
15.5 門控循環單元 252
15.6 小結 252
第16章 項目實戰 253
16.1 數據科學生命周期 254
16.2 如何提供ML套用 257
16.3 通過實踐學習 258
16.3.1 定義問題 258
16.3.2 數據 259
16.3.3 準備模型 263
16.3.4 序列化模型,以便未來用於預測 268
16.3.5 託管模型 270
16.4 未來可期 271

相關詞條

熱門詞條

聯絡我們