11 蒙特卡罗控制方法概述

在上一篇中,我们探讨了蒙特卡罗方法的基本原理。这一部分将深入讨论蒙特卡罗控制方法,进一步拓展我们对强化学习的理解。蒙特卡罗控制是指通过蒙特卡罗方法进行策略评估和改进的过程,它主要用于策略的优化。

蒙特卡罗控制的基本概念

蒙特卡罗控制的目标是通过对状态-动作值函数($Q$值函数)的估计来找到最优策略。它的基本流程是:

  1. 采样:使用策略生成多个轨迹(episode),每个轨迹由状态、动作和奖励序列组成。
  2. 评估:计算每一对 $(s, a)$ 的$Q$值,即在状态$s$下采取动作$a$的期望回报。
  3. 改进:根据$Q$值更新策略,使概率更高地选择在给定状态下收益更高的动作。

蒙特卡罗控制的实现步骤

步骤 1: 生成轨迹

在强化学习中,我们需要通过与环境的交互来获得轨迹。以下是一个简单的示例,展示如何在一个简单的环境中生成轨迹。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
import numpy as np

def generate_episode(env, policy):
state = env.reset()
episode = []
done = False

while not done:
action = policy(state)
next_state, reward, done, info = env.step(action)
episode.append((state, action, reward))
state = next_state

return episode

在这个代码示例中,generate_episode 函数生成一个完整的轨迹,使用给定的策略与环境进行交互。

步骤 2: 评估$Q$值函数

一旦获得了多条轨迹,我们可以开始评估$Q$值。在这里,我们将计算每个状态-动作对的回报。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
def compute_Q(episodes, num_states, num_actions, discount_factor=0.9):
Q = np.zeros((num_states, num_actions))
returns = np.zeros((num_states, num_actions))
returns_count = np.zeros((num_states, num_actions))

for episode in episodes:
G = 0 # 回报
multiplier = 1 # 折扣因子
for state, action, reward in reversed(episode):
G += reward * multiplier
multiplier *= discount_factor

# 更新返回值与计数
returns[state, action] += G
returns_count[state, action] += 1
Q[state, action] = returns[state, action] / returns_count[state, action] # 计算平均

return Q

在这个函数中,我们计算每个状态-动作对的$Q$值,通过回报的累积进行评估。

步骤 3: 改进策略

基于更新后的$Q$值,我们可以通过$\epsilon$-贪婪策略来改进当前策略。这是强化学习中常用的策略改进方法。

1
2
3
4
5
6
7
def epsilon_greedy_policy(Q, epsilon=0.1):
def policy(state):
if np.random.rand() < epsilon:
return np.random.choice(len(Q[state])) # 随机动作
else:
return np.argmax(Q[state]) # 选择最佳动作
return policy

在上述代码中,epsilon_greedy_policy函数定义了一个$\epsilon$-贪婪策略,这种策略在探索 (选择随机动作) 和利用 (选择Q值最高的动作)之间平衡。

循环迭代

最终,我们可以将这些步骤放在一个循环中,迭代进行策略评估与改进,直到策略收敛。

1
2
3
4
5
6
7
8
9
10
def monte_carlo_control(env, num_episodes, discount_factor=0.9):
Q = np.zeros((env.observation_space.n, env.action_space.n))
policy = epsilon_greedy_policy(Q)

for episode_num in range(num_episodes):
episode = generate_episode(env, policy)
Q = compute_Q([episode], env.observation_space.n, env.action_space.n, discount_factor)
policy = epsilon_greedy_policy(Q)

return policy, Q

实际案例:简单的网格世界

为了更好地理解蒙特卡罗控制方法,我们可以考虑一个简单的网格世界环境,其中代理可以在一个$5 \times 5$的网格中移动,每个格子可以得到相应的奖励。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
class GridWorld:
def __init__(self):
self.grid_size = 5
self.state = (0, 0)

def reset(self):
self.state = (0, 0)
return self.state

def step(self, action):
# 定义动作:上, 下, 左, 右
if action == 0: # 上
next_state = (max(0, self.state[0] - 1), self.state[1])
elif action == 1: # 下
next_state = (min(self.grid_size - 1, self.state[0] + 1), self.state[1])
elif action == 2: # 左
next_state = (self.state[0], max(0, self.state[1] - 1))
else: # 右
next_state = (self.state[0], min(self.grid_size - 1, self.state[1] + 1))

self.state = next_state
# 设定奖励
reward = -1 if self.state != (self.grid_size - 1, self.grid_size - 1) else 0
done = self.state == (self.grid_size - 1, self.grid_size - 1)

return self.state, reward, done, {}

# 使用网格世界环境进行蒙特卡罗控制
env = GridWorld()
optimal_policy, Q_values = monte_carlo_control(env, num_episodes=5000)

在这个示例中,代理在网格中移动,获取奖励,最终通过蒙特卡罗控制方法学习到一个近似最优的策略。

总结

蒙特卡罗控制方法是通过采样生成轨迹并使用$Q$值进行策略评估与改进的有力工具。它稳健且易于实现,适合用于强化学习的各种应用场景。在我们下一篇的内容中,我们将进一步讨论如何进行区间估计,以提高对强化学习模型的评估与理解。

11 蒙特卡罗控制方法概述

https://zglg.work/reinforcement-learning-zero/11/

作者

IT教程网(郭震)

发布于

2024-08-15

更新于

2024-08-16

许可协议

分享转发

学习下节

交流

更多教程加公众号

更多教程加公众号

加入星球获取PDF

加入星球获取PDF

打卡评论