統計機器學習及R實現

統計機器學習及R實現

《統計機器學習及R實現》是2023年清華大學出版社出版的圖書,作者是孫德山。

基本介紹

  • 中文名:統計機器學習及R實現
  • 作者:孫德山
  • 出版時間:2023年10月1日
  • 出版社:清華大學出版社
  • ISBN:9787302639930 
  • 定價:49.80 元
內容簡介,圖書目錄,

內容簡介

本書全面介紹了統計機器學習的主要算法,內容涉及多元線性回歸、對數線性回歸、邏輯斯蒂回歸、嶺回歸、Lasso回歸、判別分析和聚類分析等傳統方法,也涉及支持向量機、深度神經網路以及集成學習等比較熱門的算法,並給出相應算法的R語言實現。本書還給出了向量和矩陣函式求導以及拉格朗日對偶等數學基礎,便於讀者理解相關算法推導。

圖書目錄

目錄
第1章R語言基礎
1.1R的下載與安裝
1.2輔助性操作命令
1.3基本運算與賦值
1.4向量
1.4.1向量定義
1.4.2向量運算
1.4.3向量元素的獲取
1.4.4向量主要運算函式
1.5矩陣
1.5.1生成對角矩陣和單位陣
1.5.2矩陣元素取出
1.5.3矩陣行和列的維數
1.5.4矩陣的主要運算函式
1.5.5矩陣合併
1.5.6矩陣apply()運算函式
1.6因子(factor)和有序因子(ordered factor)
1.6.1創建一個因子
1.6.2創建一個有序因子
1.6.3用cut()函式將一般的數據轉換成因子或有序因子
1.7數組
1.7.1產生一個三維和四維數組
1.7.2dim()函式可將向量轉化成數組或矩陣
1.7.3張量的三個關鍵屬性
1.7.4數據張量
1.7.5張量重塑
1.8列表
1.9數據框
1.9.1生成一個數據框
1.9.2合併數據框
1.9.3判斷數據對象是否為數據框
1.9.4數據框的行名和列名
1.9.5連線函式
1.9.6數據框的數據抽取
1.10數據讀取
1.10.1讀取外部數據
1.10.2數據保存
1.11數據類型查看及環境設定
1.11.1數據類型
1.11.2數據查看
1.11.3環境設定函式options()
1.12繪圖
1.12.1繪圖參數命令
1.12.2常用的繪圖命令
1.12.3繪圖函式輔助
1.12.4三維繪圖
1.13隨機數產生
1.14編程基礎
1.14.1條件語句
1.14.2循環語句
1.14.3自定義函式
1.15R語言的更新
第2章多元分布
2.1一元分布
2.1.1樣本
2.1.2常用統計量
2.1.3常用分布
2.1.4重要定理
2.2多元分布
2.2.1p維總體
2.2.2隨機向量X的數字特徵
2.2.3多元分布的參數估計
2.3R語言相關操作
2.3.1一元正態隨機數
2.3.2多元正態隨機數
第3章線性模型
3.1線性回歸
3.1.1基本形式
3.1.2一元線性回歸
3.1.3多元線性回歸
3.1.4多重共線對回歸模型的影響
3.1.5回歸模型檢驗
3.2對數線性回歸
3.3邏輯斯蒂回歸
3.4多項邏輯回歸
3.5嶺回歸
3.6Lasso回歸
3.7模型的評估標準
3.7.1分類模型的評估
3.7.2回歸模型的評估
3.8R語言實現
3.8.1線性回歸
3.8.2邏輯斯蒂回歸
3.8.3嶺回歸
3.8.4Lasso回歸
第4章判別分析
4.1距離判別法
4.1.1常用距離
4.1.2判別方法
4.2貝葉斯判別法
4.2.1貝葉斯公式
4.2.2基於最小錯誤率的貝葉斯決策
4.2.3樸素貝葉斯法的學習與分類
4.2.4連續場合下貝葉斯決策的參數估計
4.3Fisher判別分析
4.3.1兩類分類
4.3.2多類分類
4.4R語言實例
4.4.1線性判別分析
4.4.2樸素貝葉斯判別分析
4.4.3二次判別分析
第5章支持向量機
5.1小樣本統計學習理論
5.2兩類支持向量機
5.2.1線性可分情況
5.2.2線性不可分情況
5.3一類分類支持向量機
5.4多類支持向量機
5.4.1一對多法
5.4.2一對一法
5.4.3SVM決策樹法
5.4.4ECC-SVM方法
5.4.5基於一類分類的多類分類算法
5.5基於線性規劃的支持向量機分類
5.5.1數學背景
5.5.2線性規劃的分類算法
5.5.3線性規劃下的一類分類算法
5.6支持向量回歸
5.6.1二次規劃下的支持向量回歸
5.6.2幾種線性規劃下的支持向量回歸
5.6.3最小二乘支持向量回歸
5.7R語言實驗
5.7.1分類問題
5.7.2回歸問題
第6章決策樹
6.1決策樹的概念
6.2決策樹分類器設計
6.2.1ID3算法
6.2.2C4.5算法
6.2.3決策樹剪枝
6.2.4從決策樹提取分類規則
6.3決策樹的CART算法實現
6.3.1分類樹
6.3.2回歸樹
6.4R語言實驗
6.4.1分類樹
6.4.2回歸樹
第7章集成學習
7.1個體與集成
7.2自適應提升算法
7.3梯度提升算法
7.4提升樹
7.4.1提升樹模型
7.4.2提升樹算法
7.5Bagging與隨機森林
7.5.1Bagging
7.5.2隨機森林
7.5.3結合策略
7.6R語言實驗
7.6.1裝袋法回歸
7.6.2隨機森林分類
7.6.3提升法
第8章主成分分析與因子分析
8.1主成分分析
8.1.1基本原理
8.1.2主成分套用
8.2因子分析
8.2.1因子分析模型
8.2.2因子分析模型的計算
8.3R語言試驗
8.3.1主成分分析
8.3.2因子分析
第9章降維
9.1k近鄰學習
9.2低維嵌入
9.3流形學習
9.3.1等度量映射
9.3.2局部線性嵌入
9.3.3隨機近鄰嵌入
9.3.4t分布隨機近鄰嵌入
9.4R語言實驗
9.4.1LLE降維
9.4.2MDS降維
9.4.3qkIsomap函式實現Isomap
9.4.4"Rtsne"包實現tSNE
第10章聚類分析
10.1基於距離的聚類
10.1.1相似性度量
10.1.2層次聚類
10.1.3k均值聚類
10.2基於密度的聚類
10.3R語言實驗
10.3.1k均值聚類
10.3.2層次聚類
10.3.3基於密度的聚類
第11章偏最小二乘回歸
11.1基本思想
11.2基本算法
11.3模型成分個數的確定
11.4R語言實現
第12章深度神經網路
12.1感知機
12.1.1定義
12.1.2基本思想
12.1.3算法
12.2人工神經網路的基本思想
12.2.1神經元
12.2.2激活函式
12.3前饋神經網路
12.3.1網路結構
12.3.2BP算法
12.3.3BP算法總結
12.4自動編碼器網路
12.5受限玻爾茲曼機
12.6深度置信網路
12.7卷積神經網路
12.7.1卷積
12.7.2池化
12.7.3全連線層
12.7.4訓練算法
12.7.5典型網路
12.8循環神經網路
12.8.1基本概念
12.8.2網路的訓練
12.8.3Elman神經網路
12.8.4Jordan神經網路
12.8.5LSTM網路
12.8.6GRU網路
12.9R語言實現
12.9.1neuralnet包實現前饋神經網路
12.9.2Keras包創建神經網路
12.9.3循環神經網路
12.9.4自編碼器網路
12.9.5受限玻爾茲曼機
12.9.6深度信念網
12.9.7Jordan網路
12.9.8Elman網路
附錄A向量和矩陣函式的導數
附錄B拉格朗日對偶性
參考文獻

相關詞條

熱門詞條

聯絡我們