AI可解釋性(Python語言版)

AI可解釋性(Python語言版)

《AI可解釋性(Python語言版)》是清華大學出版社2022年8月出版的圖書,作者是[意] 列奧尼達·詹法納(Leonida Gianfagna)和安東尼奧·迪·塞科(Antonio Di Cecco), 譯者是郭濤。

基本介紹

  • 書名:AI可解釋性(Python語言版)
  • 作者:[意] 列奧尼達·詹法納(Leonida Gianfagna)、安東尼奧·迪·塞科(Antonio Di Cecco)
  • 譯者:郭濤
  • 出版社:清華大學出版社
  • 出版時間:2022年8月
  • 頁數:240 頁
  • 定價:59.8 元
  • 開本:16 開
  • 裝幀:平裝
  • ISBN:9787302605690
內容簡介,圖書目錄,

內容簡介

《AI可解釋性(Python語言版)》的出版恰逢其時,通過構建XAI的方法論體系,形成一組工具和方法,從而解釋ML模型產生的複雜結果,幫助人們理解ML模型。本書從不可知論、依賴模型方法或內在可解釋性構建了人工智慧模型方法論,從全局可解釋性和局部可解釋性兩個方面來回答AI“是什麼”“為什麼以及“如何做”等方面的問題。本書適合人工智慧從業者、計算機科學家、統計科學家以及所有對機器學習模型可解釋性感興趣的讀者閱讀。
《AI可解釋性(Python語言版)》全面介紹了AI可解釋性的概念和可用技術,使機器學習系統更易於解釋。書中提出的方法可以套用於幾乎所有現有的機器學習模型:線性和邏輯回歸、深度學習神經網路、自然語言處理和圖像識別等等。
隨著機器學習的發展,如今人們越來越多地使用人工智慧體來執行以前由人類處理的關鍵任務(醫療、法律和金融等等)。雖然智慧型體的設計原則已被理解,但目前的大多數深度學習模型對人類理解而言是“不透明的”。《AI可解釋性(Python語言版)》從理論和實踐的角度填補了這個新興主題文獻方面的空白,使讀者能夠快速地使用可解釋性AI的工具和代碼。

圖書目錄

第1章 前景 1
1.1 AI可解釋性示例 2
1.1.1 學習階段 3
1.1.2 知識發現 4
1.1.3 可靠性和魯棒性 5
1.1.4 三個示例的啟示 5
1.2 ML和XAI 6
1.2.1 ML分類法 8
1.2.2 常見誤解 11
1.3 對AI可解釋性的需求 12
1.4 可解釋性與可理解性:是否為表達相同事物的不同詞語 14
1.4.1 從物質世界到人類 15
1.4.2 相關性不是因果性 16
1.4.3 那么可理解性和可解釋性的區別是什麼 19
1.5 使ML系統具備可解釋性 21
1.5.1 XAI工作流程 21
1.5.2 全局視覺 24
1.6 我們真的需要ML模型的可解釋性嗎 26
1.7 小結 28
參考文獻 29
第2章 AI可解釋性:需求、機遇和挑戰 31
2.1 人工介入 32
2.1.1 半人馬座XAI系統 32
2.1.2 從“人工介入”的角度評估XAI 35
2.2 如何使ML模型具備可解釋性 37
2.2.1 內在可解釋性 41
2.2.2 事後可解釋性 44
2.2.3 全局或局部可解釋性 46
2.3 解釋的性質 49
2.4 小結 51
參考文獻 52
第3章 內在可解釋性模型 53
3.1 損失函式 54
3.2 線性回歸 57
3.3 邏輯回歸 67
3.4 決策樹 78
3.5 K最近鄰算法(KNN) 87
3.6 小結 90
參考文獻 91
第4章 XAI的模型不可知方法 93
4.1 全局可解釋性:排序重要性與部分依賴圖 94
4.1.1 根據排序重要性將特徵排序 95
4.1.2 訓練集中的排序重要性 99
4.1.3 部分依賴圖 100
4.1.4 解釋的性質 104
4.2 局部可解釋性:XAI與Shapley加法解釋 106
4.2.1 Shapley值:一種博弈論方法 107
4.2.2 SHAP的首次套用 108
4.2.3 解釋的性質 111
4.3 KernelSHAP 111
4.3.1 Shapley公式 112
4.3.2 如何計算Shapley值 112
4.3.3 局部線性代理模型(LIME) 113
4.3.4 KernelSHAP是一種特殊的LIME 115
4.4 KernelSHAP與互動 116
4.4.1 紐約計程車情境 116
4.4.2 通過初步分析訓練模型 116
4.4.3 用KernelShap使模型具備可解釋性 120
4.4.4 特徵互動 120
4.5 提升樹的更快速SHAP 122
4.5.1 TreeShap的套用 122
4.5.2 提供解釋 123
4.6 對SHAP的樸素評價 125
4.7 小結 127
參考文獻 128
第5章 解釋深度學習模型 129
5.1 不可知方法 130
5.1.1 對抗性特徵 130
5.1.2 增強方法 132
5.1.3 將遮擋用作增強方法 133
5.1.4 將遮擋用作不可知XAI方法 134
5.2 神經網路(NN) 138
5.2.1 神經網路結構 138
5.2.2 為什麼神經網路是深層網路(與淺層網路相對) 140
5.2.3 修正激活(和批量歸一化) 142
5.2.4 顯著圖 143
5.3 打開深度網路 144
5.3.1 不同層解釋 144
5.3.2 CAM(類激活圖,Class Activation Maps)和Grad-CAM 144
5.3.3 DeepShap/ DeepLift 146
5.4 對顯著性方法的評判 150
5.4.1 網路所見 150
5.4.2 可解釋性逐層批量標準化 151
5.5 無監督方法 152
5.5.1 無監督降維 152
5.5.2 卷積濾波器降維 154
5.5.3 激活圖集:如何區分炒鍋與煎鍋 156
5.6 小結 158
參考文獻 159
第6章 用ML和XAI創造科學 161
6.1 數據時代的科學方法 162
6.2 因果關係階梯 166
6.3 用ML和XAI發現物理概念 172
6.3.1 自動編碼器的魔力 173
6.3.2 利用ML和XAI發現阻尼擺的物理特性 177
6.3.3 攀登因果關係階梯 181
6.4 ML和XAI時代的科學 182
6.5 小結 184
參考文獻 185
第7章 對抗性機器學習和可解釋性 187
7.1 對抗性示例(AE)速成課程 188
7.2 使用對抗性示例運行XAI 201
7.3 用XAI抵禦對抗性攻擊 205
7.4 小結 208
參考文獻 209
第8章 關於XAI可持續模型的建議 211
8.1 XAI“Fil Rouge” 212
8.2 XAI和GDPR 214
8.3 結語 220
8.4 小結 224
參考文獻 224
附錄 F.A.S.T. XAI認證 227

相關詞條

熱門詞條

聯絡我們