本课程详细介绍了可解释人工智能 (XAI) 的最新发展。我们对人工智能模型的依赖与日俱增,解释人工智能如何以及为何做出特定决定也变得同样重要。最近的法律也引起了解释和捍卫人工智能系统做出的决定的紧迫性。本课程讨论使用 Python 来可视化、解释和构建值得信赖的 AI 系统的工具和技术。

本课程涵盖 LIME(Local Interpretable Model Agnostic Explanations)、SHAP(SHapley Additive exPlanations)的工作原理和数学建模,用于生成本地和全局解释。它讨论了对反事实和对比解释的需求、工作原理和各种技术的数学建模,例如用于生成可操作的反事实的各种反事实解释 (DiCE)。

人工智能公平性和生成视觉解释的概念通过 Google 的假设工具 (WIT) 进行了介绍。本课程涵盖了用于生成神经网络解释的 LRP(分层相关传播)技术。

在本课程中,您将学习使用 Python 来可视化、解释和构建可信赖的 AI 系统的工具和技术。该课程涵盖各种案例研究,以强调可解释技术在关键应用领域中的重要性。

所有技术都通过实践课程进行解释,以便学习者可以清楚地理解代码并将其轻松应用于他们的 AI 模型。用于实现各种 XAI 技术的数据集和代码提供给学习者以供他们练习。

MP4 | 视频:h264, 1280×720 | 音频:AAC,44.1 KHz,2 Ch
类型:eLearning | 语言:英语 + srt | 时长:56 节课(7 小时 56 米)| 大小:3.07 GB

你会学到什么

  • XAI 在现代世界中的重要性
  • 玻璃盒、白盒和黑盒ML模型的区别
  • 根据范围、不可知性、数据类型和解释技术对 XAI 进行分类
  • 准确性和可解释性之间的权衡
  • 应用 Microsoft 的 InterpretML 包生成 ML 模型的解释
  • 需要反事实和对比的解释
  • LIME、SHAP、DiCE、LRP、反事实和对比解释等 XAI 技术的工作原理和数学建模
  • 应用 LIME、SHAP、DiCE、LRP 等 XAI 技术为表格、文本和图像数据集的黑盒模型生成解释。
  • 来自 Google 的假设分析工具,用于分析数据点并生成反事实

要求

无需编程经验。您将学习应用 XAI 为 ML 模型生成解释所需知道的一切。

本课程适用于谁

  • 参加机器学习课程或人工智能课程的学生
  • 希望在人工智能领域谋生的学生
  • 已经具备机器学习库基础知识的 Python 初学者。
  • 已经使用 Python 构建 AI 模型并且可以从学习最新的可解释 AI 技术以生成对其模型的解释中受益的研究人员
  • 想要了解使用 Python 进行机器学习模型的可解释 AI 工具和技术的数据分析师和数据科学家。

本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。

最常见的情况是下载不完整: 可对比下载完压缩包的与网盘上的容量,若小于网盘提示的容量则是这个原因。这是浏览器下载的bug,建议用百度网盘软件或迅雷下载。 若排除这种情况,可在对应资源底部留言,或联络我们。

对于会员专享、整站源码、程序插件、网站模板、网页模版等类型的素材,文章内用于介绍的图片通常并不包含在对应可供下载素材包内。这些相关商业图片需另外购买,且本站不负责(也没有办法)找到出处。 同样地一些字体文件也是这种情况,但部分素材会在素材包内有一份字体下载链接清单。

如果您已经成功付款但是网站没有弹出成功提示,请联系站长提供付款信息为您处理

源码素材属于虚拟商品,具有可复制性,可传播性,一旦授予,不接受任何形式的退款、换货要求。请您在购买获取之前确认好 是您所需要的资源