本课程详细介绍了可解释人工智能 (XAI) 的最新发展。我们对人工智能模型的依赖与日俱增,解释人工智能如何以及为何做出特定决定也变得同样重要。最近的法律也引起了解释和捍卫人工智能系统做出的决定的紧迫性。本课程讨论使用 Python 来可视化、解释和构建值得信赖的 AI 系统的工具和技术。
本课程涵盖 LIME(Local Interpretable Model Agnostic Explanations)、SHAP(SHapley Additive exPlanations)的工作原理和数学建模,用于生成本地和全局解释。它讨论了对反事实和对比解释的需求、工作原理和各种技术的数学建模,例如用于生成可操作的反事实的各种反事实解释 (DiCE)。
人工智能公平性和生成视觉解释的概念通过 Google 的假设工具 (WIT) 进行了介绍。本课程涵盖了用于生成神经网络解释的 LRP(分层相关传播)技术。
在本课程中,您将学习使用 Python 来可视化、解释和构建可信赖的 AI 系统的工具和技术。该课程涵盖各种案例研究,以强调可解释技术在关键应用领域中的重要性。
所有技术都通过实践课程进行解释,以便学习者可以清楚地理解代码并将其轻松应用于他们的 AI 模型。用于实现各种 XAI 技术的数据集和代码提供给学习者以供他们练习。
MP4 | 视频:h264, 1280×720 | 音频:AAC,44.1 KHz,2 Ch
类型:eLearning | 语言:英语 + srt | 时长:56 节课(7 小时 56 米)| 大小:3.07 GB
你会学到什么
- XAI 在现代世界中的重要性
- 玻璃盒、白盒和黑盒ML模型的区别
- 根据范围、不可知性、数据类型和解释技术对 XAI 进行分类
- 准确性和可解释性之间的权衡
- 应用 Microsoft 的 InterpretML 包生成 ML 模型的解释
- 需要反事实和对比的解释
- LIME、SHAP、DiCE、LRP、反事实和对比解释等 XAI 技术的工作原理和数学建模
- 应用 LIME、SHAP、DiCE、LRP 等 XAI 技术为表格、文本和图像数据集的黑盒模型生成解释。
- 来自 Google 的假设分析工具,用于分析数据点并生成反事实
要求
无需编程经验。您将学习应用 XAI 为 ML 模型生成解释所需知道的一切。
本课程适用于谁
- 参加机器学习课程或人工智能课程的学生
- 希望在人工智能领域谋生的学生
- 已经具备机器学习库基础知识的 Python 初学者。
- 已经使用 Python 构建 AI 模型并且可以从学习最新的可解释 AI 技术以生成对其模型的解释中受益的研究人员
- 想要了解使用 Python 进行机器学习模型的可解释 AI 工具和技术的数据分析师和数据科学家。
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。