欢迎学习《2022基于深度强化学习和PyTorch人工智能 (AI) 代理开发视频教程》课程,你将学习使用深度强化学习和PyTorch构建人工智能 (AI) 代理:DDPG、TD3、SAC、NAF、HER。

这是Udemy上最全面的高级强化学习课程之一。在其中,您将学习使用 PyTorch 和 PyTorch 闪电在 Python 中实现一些最强大的深度强化学习算法。您将从头开始实施根据经验解决控制任务的自适应算法。您将学习将这些技术与神经网络和深度学习方法相结合,以创建能够解决决策任务的自适应人工智能代理。

本课程将向您介绍强化学习技术的最新技术。它还将为您准备本系列的下一个课程,我们将在其中探索在其他类型的任务中表现出色的其他高级方法。

MP4 | 视频:h264, 1280×720 | 音频:AAC,44.1 KHz
语言:英语 | 大小:2.41 GB | 时长:8h 5m

你会学到什么

  • 掌握一些最先进的强化学习算法。
  • 了解如何创建可以在复杂环境中行动以实现其目标的 AI。
  • 使用 Python 最流行的工具( PyTorch Lightning、OpenAI gym、Brax、Optuna)从头开始创建高级强化学习代理
  • 了解如何执行超参数调整(为我们的 AI 学习选择最佳实验条件)
  • 从根本上了解每种算法的学习过程。
  • 调试和扩展所提供的算法。
  • 从研究论文中理解和实施新算法。

要求

熟悉 Python 编程

完成我们的“强化学习初学者到掌握”课程或熟悉强化学习的基础知识(或观看本课程中包含的练级部分)。

了解基本统计数据(均值、方差、正态分布)

描述

该课程的重点是培养实践技能。因此,在学习了每个方法家族最重要的概念之后,我们将从头开始在 jupyter notebook 中实现它们的一种或多种算法。

调平模块:

– 复习:马尔可夫决策过程 (MDP)。

– 复习:Q-Learning。

– 复习:神经网络简介。

– 复习:深度 Q 学习。

– 复习:策略梯度方法

高级强化学习

– PyTorch Lightning。

– 使用 Optuna 进行超参数调整。

– 连续动作空间的深度 Q 学习(归一化优势函数 – NAF)。

– 深度确定性策略梯度 (DDPG)。

– 双延迟 DDPG (TD3)。

– 软演员-评论家 (SAC)。

– 事后经验回放 (HER)。

本课程适用于谁

  • 想要在机器学习领域找到工作的开发人员。
  • 寻求扩展知识广度的数据科学家/分析师和机器学习从业者。
  • 机器人专业的学生和研究人员。
  • 工科学生和研究人员。

本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。

最常见的情况是下载不完整: 可对比下载完压缩包的与网盘上的容量,若小于网盘提示的容量则是这个原因。这是浏览器下载的bug,建议用百度网盘软件或迅雷下载。 若排除这种情况,可在对应资源底部留言,或联络我们。

对于会员专享、整站源码、程序插件、网站模板、网页模版等类型的素材,文章内用于介绍的图片通常并不包含在对应可供下载素材包内。这些相关商业图片需另外购买,且本站不负责(也没有办法)找到出处。 同样地一些字体文件也是这种情况,但部分素材会在素材包内有一份字体下载链接清单。

如果您已经成功付款但是网站没有弹出成功提示,请联系站长提供付款信息为您处理

源码素材属于虚拟商品,具有可复制性,可传播性,一旦授予,不接受任何形式的退款、换货要求。请您在购买获取之前确认好 是您所需要的资源