强化学习(英文):掌握 RL 的艺术
强化学习
讲师:Coursat.ai Dr. Ahmad ElSallab
口袋资源独家Udemy付费课程,独家中英文字幕,配套资料齐全!
用不到1/10的价格,即可享受同样的高品质课程,且可以完全拥有,随时随地都可以任意观看和分享。
你将学到什么
- 定义什么是强化学习?
- 使用 OpenAI Gym、StabeBaselines、Keras-RL 和 TensorFlow Agents 等最先进的库应用所学到的所有知识
- 定义 RL 的应用领域和成功案例是什么?
- 定义强化学习和监督学习之间有什么区别?
- 定义强化学习问题设置的主要组成部分?
- 定义 RL 代理的主要成分及其分类是什么?
- 定义什么是马尔可夫奖励过程(MRP)和马尔可夫决策过程(MDP)?
- 使用 MDP 框架定义 RL 的解空间
- 使用动态规划算法(例如策略评估、策略迭代和值迭代)进行规划来解决 RL 问题
- 使用无模型算法(例如 Monte-Carlo、TD 学习、Q 学习和 SARSA)解决 RL 问题
- 区分在策略和离策略算法
- 掌握深度强化学习算法,例如深度 Q 网络 (DQN),并将其应用于大规模强化学习
- 掌握策略梯度算法和 Actor-Critic(AC、A2C、A3C)
- 掌握先进的 DRL 算法,如 DDPG、TRPO 和 PPO
- 定义什么是基于模型的强化学习,并将其与规划区分开来,它们的主要算法和应用是什么?
要求
- 机器学习基础知识
- 深度学习基础知识
- 可能性
- 编程和解决问题的基础知识
- Python编程
描述
您好,欢迎来到我们的课程;强化学习。
强化学习是机器学习和人工智能中一个非常令人兴奋且重要的领域。有人称其为人工智能皇冠上的宝石。
在本课程中,我们将涵盖与强化学习或 RL 相关的所有方面。我们将从定义 RL 问题开始,并将其与监督学习问题进行比较,并发现 RL 可以擅长的应用领域。这包括问题的表述,从深度学习的基础知识到高级用法,从而进入深度强化学习时代。
在我们的旅程中,我们将像往常一样涵盖理论和实践方面,我们将学习如何实现 RL 算法,并使用 OpenAI Gym、Keras-RL、TensorFlow Agents 或 TF- 等库将它们应用于著名的问题。代理和稳定的基线。
该课程分为 6 个主要部分:
1-我们首先介绍强化学习问题的定义,主要将其与监督学习问题进行比较,并发现强化学习问题的应用领域和主要组成部分。我们在这里描述了著名的 OpenAI Gym 环境,当涉及到我们所学算法的实际实现时,这将是我们的游乐场。
2-在第二部分中,我们讨论 RL 问题的主要表述为马尔可夫决策过程或 MDP,并使用动态规划简单地解决最基本的问题。
3- 了解 MDP 后,我们继续探索 MDP 问题的解决方案空间,以及 DP 之外的不同解决方案,包括基于模型和无模型的解决方案。我们将在这一部分中重点关注无模型解决方案,并将基于模型的解决方案推迟到最后一部分。在这一部分中,我们描述基于蒙特卡罗和时间差分采样的方法,包括著名且重要的Q学习算法和SARSA。我们将描述 Q-learning 和 SARSA 在 OpenAI Gym 环境中控制表格迷宫问题的实际用法和实现。
4- 为了超越简单的表格问题,我们需要学习 RL 中的函数逼近,这导致了当今使用深度学习或深度强化学习 (DRL) 的主流 RL 方法。这里我们将介绍 DeepMind 解决 Atari 游戏和 AlphaGO 的突破性算法,即 Deep Q-Networks 或 DQN。我们还讨论了如何在实践中使用 Keras-RL 和 TF-Agents 使用 DQN 解决 Atari 游戏问题。
5-在第五部分中,我们转向高级 DRL 算法,主要属于基于策略的方法系列。我们在这里讨论策略梯度、DDPG、Actor-Critic、A2C、A3C、TRPO 和 PPO 方法。我们还讨论了重要的稳定基线库,用于在 OpenAI Gym 的不同环境(如 Atari 等)上实现所有这些算法。
6-最后,我们探索基于模型的 RL 方法系列,重要的是,将基于模型的 RL 与规划区分开来,并探索整个 RL 方法。
希望您喜欢本课程并发现它很有用。
本课程适合谁:
- 机器学习研究人员
- 机器学习工程师
- 数据科学家