Python可解釋AI(XAI)實戰

Python可解釋AI(XAI)實戰

《Python可解釋AI(XAI)實戰》是清華大學出版社2022年8月出版的圖書,作者是[法]丹尼斯·羅斯曼(Denis Rothman),譯者是葉偉民和朱明超。

基本介紹

  • 中文名:Python可解釋AI(XAI)實戰
  • 作者:[法]丹尼斯·羅斯曼(Denis Rothman)
  • 譯者:葉偉民、朱明超
  • 出版社:清華大學出版社
  • 出版時間:2022年8月
  • 頁數:356 頁
  • 定價:128 元
  • 開本:16 開
  • 裝幀:【平裝】
  • ISBN:9787302613299
圖書目錄,

圖書目錄

第1章 使用Python 解釋AI.1
1.1 可解釋AI 的定義2
1.1.1 從黑盒模型到XAI 白盒模型3
1.1.2 解釋和闡釋4
1.2 設計和提取5
1.3 醫學診斷時間線中的XAI8
1.3.1 全科醫生使用的標準AI 程式8
1.3.2 西尼羅河病毒——一個生死
攸關的案例15
1.3.3 Google Location History 與XAI 的
結合可以拯救生命21
1.3.4 下載Google Location History21
1.3.5 讀取和顯示Google Location
History25
1.3.6 用XAI 增強AI 診斷33
1.3.7 將XAI 套用於醫學診斷
實驗性程式38
1.4 本章小結.42
1.5 習題42
1.6 參考資料43
1.7 擴展閱讀43
第2章 AI 偏差和道德方面的
白盒XAI .45
2.1 自動駕駛汽車系統AI 的
道德和偏差46
2.1.1 自動駕駛系統在生死關頭是
如何做決策的47
2.1.2 電車難題47
2.1.3 麻省理工學院的道德
機器實驗48
2.1.4 真實的生死攸關情景48
2.1.5 從道德倫理上解釋AI 的
局限性49
2.2 對自動駕駛決策樹的解釋51
2.2.1 自動駕駛系統的兩難困境52
2.2.2 導入模組53
2.2.3 檢索數據集53
2.2.4 讀取和拆分數據54
2.2.5 決策樹分類器的理論描述56
2.2.6 創建默認的決策樹分類器57
2.2.7 訓練、測量、保存模型58
2.2.8 顯示決策樹60
2.3 將XAI 套用於自動駕駛
決策樹62
2.4 使用XAI 和道德來控制
決策樹68
2.4.1 載入模型69
2.4.2 測量準確率.69
2.4.3 模擬實時案例69
2.4.4 由噪聲引起的ML 偏差70
2.4.5 將道德和法律引入ML.72
2.6 本章小結74
2.7 習題75
2.8 參考資料75
2.9 擴展閱讀76
第3章 用Facets 解釋ML.77
3.1 Facets 入門78
3.1.1 在Google Colaboratory
安裝Facets78
3.1.2 檢索數據集79
3.1.3 讀取數據檔案80
3.2 Facets Overview80
3.3 對Facets 統計信息進行排序82
3.3.1 按特徵順序排序83
3.3.2 按不均勻性排序83
3.3.3 按字母順序排序86
3.3.4 按缺失值或零值的數量排序86
3.3.5 按分布距離排序87
3.4 Facets Dive88
3.4.1 構建Facets Dive 互動式界面88
3.4.2 定義數據點的標籤90
3.4.3 定義數據點的顏色92
3.4.4 定義x 軸和y 軸的binning 93
3.4.5 定義散點圖的x 軸和y 軸94
3.5 本章小結96
3.6 習題96
3.7 參考資料97
3.8 擴展閱讀97
第4章 Microsoft Azure 機器學習
模型的可解釋與SHAP 99
4.1 SHAP 簡介100
4.1.1 關鍵的SHAP 原則100
4.1.2 Shapley 值的數學表達式102
4.1.3 情感分析示例104
4.2 SHAP 入門108
4.2.1 安裝SHAP108
4.2.2 導入數據109
4.2.3 向量化數據集 115
4.3 線性模型和邏輯回歸117
4.3.1 創建、訓練和可視化線性模型
的輸出 117
4.3.2 定義線性模型119
4.3.3 使用SHAP 實現與模型無關的
解釋121
4.3.4 創建線性模型解釋器121
4.3.5 添加圖表功能121
4.3.6 解釋模型的預測結果123
4.4 本章小結 130
4.5 習題 131
4.6 參考資料131
4.7 擴展閱讀131
4.8 其他出版物 132
第5章 從零開始構建可解釋AI
解決方案133
5.1 道德倫理和法律視角 134
5.2 美國人口普查數據問題 135
5.2.1 使用pandas 顯示數據135
5.2.2 道德倫理視角137
5.3 機器學習視角 141
5.3.1 使用Facets Dive 顯示
訓練數據142
5.3.2 使用Facets Dive 分析
訓練數據144
5.3.3 驗證輸出是否符合以上原則146
5.3.4 對輸入數據進行轉換153
5.4 將WIT 套用於轉換後的
數據集 155
5.5 本章小結 162
5.6 習題 163
5.7 參考資料163
5.8 擴展閱讀 163
第6章 用Google What-If Tool(WIT)
實現AI 的公平性165
6.1 從道德倫理視角談AI
可解釋和可闡釋性 166
6.1.1 道德倫理視角166
6.1.2 法律視角.167
6.1.3 解釋和闡釋167
6.1.4 準備符合道德倫理的數據集168
6.2 WIT 入門170
6.2.1 導入數據集171
6.2.2 對數據進行預處理172
6.2.3 創建數據結構以訓練和
測試模型174
6.3 創建DNN 模型174
6.4 創建SHAP 解釋器177
6.5 模型輸出與SHAP 值178
6.6 WIT 數據點瀏覽器和
編輯器181
6.6.1 創建WIT181
6.6.2 數據點編輯器182
6.6.3 特徵186
6.6.4 性能和公平性187
6.7 本章小結193
6.8 習題193
6.9 參考資料194
6.10 擴展閱讀194
第7章 可解釋AI 聊天機器人 195
7.1 Dialogflow 的Python
客戶端196
7.1.1 安裝Google Dialogflow 的
Python 客戶端197
7.1.2 創建Google Dialogflow 代理197
7.1.3 啟用API 和服務200
7.1.4 實現Google Dialogflow 的
Python 客戶端202
7.2 增強Google Dialogflow 的
Python 客戶端205
7.2.1 創建對話函式205
7.2.2 在Dialogflow 實現XAI 的
限制206
7.2.3 在Dialogflow 創建意圖206
7.2.4 XAI Python 客戶端212
7.3 使用Google Dialogflow 的
CUI XAI 對話 216
7.3.1 將Dialogflow 集成到網站中216
7.3.2 Jupyter Notebook XAI 代理
管理器220
7.3.3 Google Assistant 220
7.4 本章小結 222
7.5 習題 223
7.6 擴展閱讀 223
第8章 LIME225
8.1 介紹LIME 226
8.1.1 LIME 的數學表示227
8.2 開始使用LIME 229
8.2.1 在Google Colaboratory 安裝
LIME230
8.2.2 檢索數據集和矢量化數據集230
8.3 一個實驗性的AutoML
模組 231
8.3.1 創建AutoML 模板232
8.3.2 Bagging 分類器233
8.3.3 梯度提升分類器234
8.3.4 決策樹分類器234
8.3.5 極度隨機樹分類器235
8.4 解釋分數 236
8.5 訓練模型並生成預測 236
8.5.1 分類器的互動選擇237
8.5.2 完成預測過程238
8.6 LIME 解釋器 239
8.6.1 創建LIME 解釋器240
8.6.2 闡釋LIME 解釋器242
8.7 本章小結247
8.8 習題248
8.9 參考資料248
8.10 擴展閱讀248
第9章 反事實解釋法 249
9.1 反事實解釋法250
9.1.1 數據集和動機250
9.1.2 使用WIT 可視化反事實
距離251
9.1.3 使用默認視圖探索數據點
距離253
9.1.4 反事實解釋的邏輯258
9.2 距離函式的選項262
9.2.1 L1 範數263
9.2.2 L2 範數264
9.2.3 自定義距離函式265
9.3 深度學習模型的架構266
9.3.1 調用 WIT266
9.3.2 自定義預測函式267
9.3.3 載入 Keras 預訓練模型268
9.3.4 檢索數據集和模型269
9.4 本章小結270
9.5 習題270
9.6 參考資料271
9.7 擴展閱讀271
第10章 對比解釋法(CEM) 273
10.1 CEM274
10.2 將CEM套用於MNIST276
10.2.1 安裝Alibi 並導入模組276
10.2.2 導入模組和數據集276
10.3 定義和訓練CNN 模型279
10.3.1 創建CNN 模型281
10.3.2 訓練CNN 模型281
10.3.3 將原始圖像與解碼圖像
進行比較285
10.4 相關負面 287
10.4.1 CEM 參數288
10.4.2 初始化CEM解釋器289
10.4.3 相關負面的解釋290
10.5 本章小結 291
10.6 習題. 292
10.7 參考資料 292
10.8 擴展閱讀 293
第11章 錨解釋法295
11.1 錨解釋法 296
11.1.1 預測收入296
11.1.2 新聞組分類299
11.2 對ImageNet 圖像預測
套用錨解釋法 300
11.2.1 安裝Alibi 並導入其他
所需模組300
11.2.2 載入InceptionV3 模型301
11.2.3 下載圖像301
11.2.4 處理圖像並進行預測302
11.2.5 構建錨圖像解釋器303
11.2.6 解釋其他類別306
11.2.7 錨解釋法的局限性308
11.3 本章小結 309
11.4 習題 309
11.5 參考資料 310
11.6 擴展閱讀 310
第12章 認知解釋法 311
12.1 基於規則的認知解釋法 312
12.1.1 從XAI 工具到XAI 概念313
12.1.2 定義認知解釋法313
12.1.3 實踐認知解釋法315
12.1.4 特徵的邊際貢獻319
12.2 矢量化器的認知解釋法322
12.2.1 解釋LIME 的矢量化器323
12.2.2 解釋 IMDb 的SHAP
矢量化器325
12.3 CEM 的人類認知輸入327
12.4 本章小結 331
12.5 習題 332
12.6 擴展閱讀 332
習題答案333

相關詞條

熱門詞條

聯絡我們