●第1章 使用Python 解釋AI
1.1 可解釋AI 的定義
1.1.1 從黑盒模型到XAI 白盒模型
1.1.2 解釋和闡釋
1.2 設計和提取
1.3 醫學診斷時間線中的XAI
1.3.1 全科醫生使用的標準AI程序
1.3.2 西尼羅河病毒——一個生死攸關的案例
1.3.3 Google Location History 與XAI的結合可以拯救生命
1.3.4 下載Google Location History
1.3.5 讀取和顯示Google Location History
1.3.6 用XAI 增強AI 診斷
1.3.7 將XAI 應用於醫學診斷實驗性程序
1.4 本章小結
1.5 習題
1.6 參考資料
1.7 擴展閱讀
第2章 AI偏差和道德方面的白盒XAI
2.1 自動駕駛汽車繫統AI的道德和偏差
2.1.1 自動駕駛繫統在生死關頭是如何做決策的
2.1.2 電車難題
2.1.3 麻省理工學院的道德機器實驗
2.1.4 真實的生死攸關情景
2.1.5 從道德倫理上解釋AI的局限性
2.2 對自動駕駛決策樹的解釋
2.2.1 自動駕駛繫統的兩難困境
2.2.2 導入模塊
2.2.3 檢索數據集
2.2.4 讀取和拆分數據
2.2.5 決策樹分類器的理論描述
2.2.6 創建默認的決策樹分類器
2.2.7 訓練、測量、保存模型
2.2.8 顯示決策樹
2.3 將XAI應用於自動駕駛決策樹
2.4 使用XAI和道德來控制決策樹
2.4.1 加載模型
2.4.2 測量準確率
2.4.3 模擬實時案例
2.4.4 由噪聲引起的ML偏差
2.4.5 將道德和法律引入ML
2.6 本章小結
2.7 習題
2.8 參考資料
2.9 擴展閱讀
第3章 用Facets解釋ML
3.1 Facets 入門
……
第4章 Microsoft Azure機器學習
第5章 從零開始構建可解釋AI解決方案
第6章 用Google What-If Tool(WIT)
第7章 可解釋AI 聊天機器人
第8章 LIME
第9章 反事實解釋法
第10章 對比解釋法(CEM)
第11章 錨解釋法
第12章 認知解釋法
怎樣纔能有效地向AI業務和利益相關者解釋AI的決策?你需要仔細規劃、設計和可視化。要解決的問題、模型以及變量之間的關繫通常是微妙、出乎意料和復雜的。 本書通過幾個精心設計的項目讓你在實踐中掌握眾多XAI工具和方法,而不是僅僅停留在理論和概念上。你將動手構建模型,可視化解釋結果,並集成XAI工具。 你將使用Python、TensorFlow 2、Google Cloud XAI平臺、Google Colaboratory和其他框架構建XAI解決方案,以打開機器學習模型的黑匣子。本書涵蓋多個可在整個機器學習項目生命周期中使用的Python開源XAI工具。 你將學習如何探索機器學習模型結果,檢查關鍵影響變量和變量關繫,檢測和處理偏見和道德倫理及法律問題,以及將機器學習模型可視化到用戶界面中。