可解釋人工智慧導論

可解釋人工智慧導論

《可解釋人工智慧導論》是電子工業出版社出版圖書,作者是楊強,范力欣,朱軍等。

闡述可解釋AI研究的問題和方法,詳盡展示其廣泛套用和積極作用。

基本介紹

  • 中文名:可解釋人工智慧導論
  • 作者:楊強、范力欣、 朱軍
  • 出版時間:2022年4月
  • 出版社:電子工業出版社
  • 頁數:380 頁
  • ISBN:9787121431876
  • 定價:158 元
  • 開本:16 開
內容簡介,圖書目錄,作者簡介,楊強,范力欣,朱軍,陳一昕,張拳石,朱松純,陶大程,崔鵬,周少華,劉琦,黃萱菁,張永鋒,

內容簡介

全面介紹可解釋人工智慧的基礎知識、理論方法和行業套用。

圖書目錄

推薦序
前言
作者介紹
第1章 可解釋人工智慧概述
1.1為什麼人工智慧需要可解釋性
1.2可解釋人工智慧
1.2.1目的、定義及範式
1.2.2層次、分類及套用場景
1.2.3解釋的範疇
1.2.4解釋的評價與度量
1.3可解釋AI的歷史及發展現狀
1.3.1可解釋AI歷史回顧
1.3.2可解釋AI發展現狀
1.4本書結構及閱讀建議
第2章 貝葉斯方法
2.1貝葉斯網路
2.1.1貝葉斯網路的表示
2.1.2貝葉斯網路的推斷
2.1.3貝葉斯網路的學習
2.1.4貝葉斯規劃學習
2.2貝葉斯深度學習
2.2.1深度生成模型
2.2.2貝葉斯神經網路
2.3從貝葉斯網路到可解釋的因果模型
2.4延伸閱讀
2.5小結
第3章 基於因果啟發的穩定學習和反事實推理
3.1將因果引入機器學習的增益
3.1.1制約人工智慧技術的可解釋性和穩定性問題
3.1.2關聯性和因果性
3.2挖掘數據中的因果關聯
3.2.1因果推理框架和因果效應定義
3.2.2潛在結果框架下的因果效應評估
3.3穩定學習
3.3.1二值特徵下的穩定學習
3.3.2連續特徵下的穩定學習
3.3.3從統計學習角度的解釋
3.3.4區分性變數去關聯的穩定學習
3.3.5與深度神經網路相結合的穩定學習
3.4反事實推理
3.4.1二值類型干預的反事實推理
3.4.2多維類型干預下的反事實推理
3.4.3存在未觀測混淆變數的反事實推理
3.5小結
第4章 基於與或圖模型的人機協作解釋
4.1與或圖模型
4.2基於與或圖的多路徑認知過程
4.3人機協作對齊人類認知結構和與或圖模型
4.3.1通過互動式問答構建與人類認知系統對齊的與或圖模型
4.3.2評價模型的可解讀性:“氣泡遊戲”實驗
4.3.3模型通過主動建模用戶認知提升可解讀性
4.4小結
第5章 對深度神經網路的解釋
5.1神經網路特徵可視化
5.1.1最大激活回響可視化
5.1.2網路解剖與特徵語義分析
5.1.3基於反向傳播的輸入重建可視化
5.1.4CAM/Grad-CAM
5.2輸入單元重要性歸因
5.2.1SHAP算法
5.2.2導向反向傳播算法
5.2.3逐層相關性傳播算法
5.2.4積分梯度算法
5.2.5LIME
5.3博弈互動解釋性理論
5.3.1理論基礎:沙普利值
5.3.2博弈互動的定義
5.3.3博弈互動的性質
5.3.4博弈互動與語義表達
5.3.5解釋隨機失活操作
5.3.6解釋批規範化操作
5.3.7解釋對抗遷移性和對抗魯棒性
5.4對神經網路特徵質量解構、解釋和可視化
5.4.1解釋表征一致性
5.4.2解釋複雜度
5.5對表達結構的解釋
5.5.1代理模型解釋
5.5.2對自然語言網路中語言結構的提取和解釋
5.6可解釋的神經網路
5.6.1膠囊網路
5.6.2β-變分自編碼器
5.6.3可解釋的卷積神經網路
5.6.4可解釋的組成卷積神經網路
5.7小結
第6章 生物醫療套用中的可解釋人工智慧
6.1基因編輯系統最佳化設計中的可解釋人工智慧
6.1.1基因編輯系統背景介紹
6.1.2基因編輯系統最佳化設計可解釋AI模型構建
6.2醫學影像中的可解釋性
6.2.1概述
6.2.2可解釋性胸片診斷
6.2.3具有自適應性的通用模型學習
6.3小結
第7章 金融套用中的可解釋人工智慧
7.1簡介
7.1.1金融行業背景介紹
7.1.2金融市場介紹
7.1.3可解釋AI面向各金融行業對象的必要性
7.1.4金融監管對於可解釋性的要求
7.2金融可解釋AI的案例
7.2.1事後可解釋模型解釋人工智慧量化模型
7.2.2高風險客戶信用違約預測
7.2.3對金融人工智慧模型可解釋性的監管
7.3金融可解釋AI的發展方向
7.3.1安全性
7.3.2平衡性
7.3.3完整性
7.3.4互動性
7.3.5時效性
7.3.6深化推廣套用
7.4延伸閱讀
7.5小結
第8章 計算機視覺套用中的可解釋人工智慧
8.1背景
8.1.1機器視覺與可解釋性
8.1.2可解釋性與機器視覺發展
8.2視覺關係抽取
8.2.1基本概念
8.2.2視覺關係檢測中可解釋性的重要性
8.2.3可解釋視覺關係抽取
8.3視覺推理
8.3.1基本概念
8.3.2可解釋視覺推理示例
8.4視覺魯棒性
8.4.1動態與靜態可解釋性分析
8.4.2數字世界與物理世界模型安全可解釋性
8.5視覺問答
8.5.1基本概念
8.5.2視覺問答中可解釋性的重要性
8.5.3可解釋性視覺問答示例
8.6知識發現
8.6.1基本概念
8.6.2視覺可解釋性與知識發現的關係
8.6.3可解釋性知識發現案例
8.7小結
第9章 自然語言處理中的可解釋人工智慧
9.1簡介.243
9.2可解釋自然語言處理中的模型結構分析
9.2.1為什麼模型結構分析很重要
9.2.2設定探針任務窺探模型結構的功能
9.2.3錯誤類型分析
9.2.4可解釋評估
9.3可解釋自然語言處理中的模型行為分析
9.3.1為什麼模型行為分析很重要
9.3.2預測行為分析
9.4自然語言處理任務中的可解釋性
9.4.1對話系統
9.4.2智慧型問答系統
9.4.3情感分析系統
9.4.4自動文摘系統
9.5延伸閱讀
9.5.1魯棒性分析
9.5.2泛化性分析
9.6小結
第10章 推薦系統中的可解釋人工智慧
10.1簡介
10.2初探可解釋推薦
10.3可解釋推薦的歷史與背景
10.4推薦系統基礎
10.4.1推薦系統的輸入
10.4.2推薦系統的輸出
10.4.3推薦系統的三大核心問題
10.5基本的推薦模型
10.5.1協同過濾
10.5.2協同推理
10.6可解釋的推薦模型
10.7可解釋推薦的套用
10.7.1電子商務
10.7.2社交網站
10.7.3基於位置的服務
10.7.4多媒體系統
10.7.5其他套用
10.8延伸閱讀:其他可解釋推薦模型
10.8.1基於圖和知識圖譜的可解釋推薦模型
10.8.2深度學習推薦系統的可解釋性
10.8.3基於自然語言生成的解釋
10.8.4基於因果和反事實推理的解釋
10.9小結
第11章 結論
附錄A 傳統機器學習中的可解釋模型
A.1線性回歸
A.2邏輯回歸
A.3決策樹
附錄B 可解釋人工智慧相關研究資源
B.1圖書
B.2綜述論文
B.3Workshop及論文集
B.4Tutorial
B.5代碼
參考文獻
索引

作者簡介

楊強

加拿大工程院及加拿大皇家科學院兩院院士,國際人工智慧聯合會IJCAI前理事會主席,香港科技大學講席教授。領銜全球遷移學習和聯邦學習研究及套用,最近的著作有《遷移學習》《聯邦學習》《聯邦學習實戰》等。

范力欣

微眾銀行人工智慧首席科學家,研究領域包括機器學習和深度學習、計算機視覺和模式識別、圖像和視頻處理等。

朱軍

清華大學計算機系教授、人智所所長、北京智源人工智慧研究院和瑞萊智慧首席科學家,主要從事機器學習研究。

陳一昕

華夏基金董事總經理,首席數據官兼首席技術官。美國華盛頓大學計算機系教授、大數據科學中心創始主任。研究領域為金融科技、金融數據挖掘、智慧型投資研究、機器學習、最佳化算法等。

張拳石

上海交通大學副教授,博士生導師。研究方向為機器學習和計算機視覺,尤其是神經網路可解釋性。

朱松純

北京通用人工智慧研究院院長,北京大學人工智慧研究院院長,清華大學通用人工智慧研究院院長。長期致力於構建計算機視覺、認知科學、乃至人工智慧科學的統一數理框架。

陶大程

澳大利亞科學院院士,京東探索研究院首任院長,兼任悉尼大學數字科學研究所顧問及首席科學家。主要關注可信人工智慧研究,尤其是深度學習的基礎理論、大規模模型分散式訓練以及相關的機器視覺套用。

崔鵬

清華大學計算機系長聘副教授,博士生導師。研究興趣聚焦於大數據驅動的因果推理和穩定預測、大規模網路表征學習等。

周少華

中國科學技術大學講席教授、生物醫學工程學院執行院長、影像智慧型與機器人研究中心(籌)主任、中科院計算所客座研究員、香港中文大學(深圳)客座教授。長期致力於醫學影像的研究創新及其套用落地。

劉琦

同濟大學生命科學與技術學院生物信息系長聘教授,博士生導師。致力於發展人工智慧和生物組學交叉融合的研究範式,進行精準醫學研究。

黃萱菁

復旦大學計算機科學技術學院教授,博士生導師。研究領域為人工智慧、自然語言處理、信息檢索和社會媒體分析。

張永鋒

羅格斯大學計算機系助理教授,博士生導師,網際網路智慧型與經濟實驗室主任。研究興趣為機器學習、數據挖掘、信息檢索和推薦系統等。

相關詞條

熱門詞條

聯絡我們