强化学习系列(五)--Actor-Critic实例

2024-05-09 21:15:55 浏览数 (1)

在前文我们介绍过基于价值算法和基于策略算法的区别:

在基于价值算法中,是根据值函数对策略进行改进,对比基于策略的方法,他的决策更为肯定就是选择价值最高的;而基于策略方法,是直接对策略进行迭代让累计回报最大。

在上文也介绍了基于策略算法的一个实例。

本文介绍一个结合了基于值和基于策略优势的方案:Actor-Critic。

Actor-Critic介绍

首先我们回顾下PolicyGradient算法,R(tau)作为一个Loss幅值计算,它需要在一次探索完成后进行学习,学习过程比较慢,而且由于是要考虑多个step过程,累计多步的回报,计算的R值方差会比较大。如果我们将R的形式进行调整,使用td_error来作为R,优点是方差小,但是因为用到逼近方法,计算的策略梯度存在偏差。如果结合基于值的策略方案,这种不用累计一次探索再进行学习,而可以单步学习,提升学习效率。这里td_error需要的V值用一个近似估计采用一个网络来预测,可以将这个网络叫做Critic,因为他的作用就是用来评价每一步的动作选取的好坏。这样就是在PolicyGradient算法上引入了基于值算法的网络。也就是Actor-Critic的主要思路。

优化过程如下图:

总结一下,Actor网络是基于PolicyGradient,是一个基于策略的学习。Critic是基于Q-learning,基于值的学习。在PolicyGradient学习中我们已经了解了他是需要一次探索结束后才能进行学习,而Q-learning是可以单步更新。

根据字面意思,Actorc是演员,Critic是评论家,Actor的作用就是决策出下一动作是什么,而Critic网络就是指出执行的动作是好还是坏。

Actor的目标是最大化期望reward,Critic的目标是更新现实和估计的误差(TD error)。基于PG的方法我们创建一个Actor网络,然后再创建Critic网络来计算Q函数值(希望Actor策略下的估计和现实Q值误差小),就是Actor-Critci方法。

所以我们可以认为actor预测动作的概率,critic根据actor的动作评价动作的得分,Actor根据Critic的评分调整选择动作的概率学习方向。

AC方法的优点:可以进行单步更新,不需要等待一次探索结束再计算长期效益

AC方法的缺点:需要更新两个网络,Actor的更新取决Critic的评价,训练过程中难收敛。

Actor-Critic实例一

下面我们还是通过代码来更深刻的理解AC方法,还是解决cartpole问题。其中R(tau)我们使用td_error时序差分的微分思想。

这里学习过程和PolicyGradient不同,不用等待一次探索,而是每个step进入learn。

探索过程:

代码语言:python代码运行次数:0复制
# 开始探索训练
for i_episode in range(MAX_EPISODE):
    s = env.reset()
    t = 0
    track_r = []
    while True:
        if RENDER: env.render()
        # 使用actor网络选取动作
        a = actor.choose_action(s)
        # 得到每步动作后新的状态值和即刻回报r
        s_, r, done, info = env.step(a)
        # 探索结束(杆倒),设置r为负数
        if done:
            r = -20
        track_r.append(r)
        # 每个step,critic进行一次学习,得到td_error。
        # gradient = grad[r   gamma * V(s_) - V(s)]
        td_error = critic.learn(s, r, s_)
        # 每个step,actor进行一次学习,同时critic会指导学习方向
        # actor的目标:true_gradient = grad[logPi(s,a) * td_error]
        actor.learn(s, a, td_error)

Cricit网络和loss计算,其中loss使用td_error,最小化td_error的平方作为目标优化参数,目的是用近似的值函数接近真实的值函数。

代码语言:python代码运行次数:0复制
class Critic(object):
    def __init__(self, sess, n_features, lr=0.01):
        self.sess = sess
        # 状态
        self.s = tf.placeholder(tf.float32, [1, n_features], "state")
        # 执行actor的状态值函数
        self.v_ = tf.placeholder(tf.float32, [1, 1], "v_next")
        # 即刻回报
        self.r = tf.placeholder(tf.float32, None, 'r')
        # 两层全链接,预测
        with tf.variable_scope('Critic'):
            # 两层全连接层,预测状态值函数
            l1 = tf.layers.dense(
                inputs=self.s,
                units=20,  # number of hidden units
                activation=tf.nn.relu,  # None
                # have to be linear to make sure the convergence of actor.
                # But linear approximator seems hardly learns the correct Q.
                kernel_initializer=tf.random_normal_initializer(0., .1),  # weights
                bias_initializer=tf.constant_initializer(0.1),  # biases
                name='l1'
            )
            self.v = tf.layers.dense(
                inputs=l1,
                units=1,  # output units
                activation=None,
                kernel_initializer=tf.random_normal_initializer(0., .1),  # weights
                bias_initializer=tf.constant_initializer(0.1),  # biases
                name='V'
            )

        with tf.variable_scope('squared_TD_error'):
            # TD_error = (r gamma*V_next) - V_eval
            self.td_error = self.r   GAMMA * self.v_ - self.v
            self.loss = tf.square(self.td_error)
        with tf.variable_scope('train'):
            self.train_op = tf.train.AdamOptimizer(lr).minimize(self.loss)

    def learn(self, s, r, s_):
        # 学习 状态的价值 (state value), 不是行为的价值 (action value),
        # 计算 TD_error = (r   v_) - v,
        # 用 TD_error 评判这一步的行为有没有带来比平时更好的结果,
        # return  # 学习时产生的 TD_error
        s, s_ = s[np.newaxis, :], s_[np.newaxis, :]
        v_ = self.sess.run(self.v, {self.s: s_})
        td_error, _ = self.sess.run([self.td_error, self.train_op],
                                    {self.s: s, self.v_: v_, self.r: r})
        return td_error

再来看看Actor网络和loss计算,其中目标是最大化log_prob * self.td_error。

对于这里的loss之前有个疑问,critic目的是让td_error越来越小,那在actor网络里如何指导的呢?

我们可以假设如果达到了最佳状态,采取的动作反馈到环境中的值函数和估计的值函数一致了,也说明策略收敛了。

在收敛之前,如果r V(t 1)-V(t)大说明选取的动作好,我们要向这个方向继续学习;

反之,如果r V(t 1)-V(t)小,说明选择的动作小于状态值期望,我们向这个方向学习幅度就要 小点。

代码语言:python代码运行次数:2复制
# 创建Actor网络
class Actor(object):
    def __init__(self, sess, n_features, n_actions, lr=0.001):
        self.sess = sess
        # 状态值
        self.s = tf.placeholder(tf.float32, [1, n_features], "state")
        # 动作值
        self.a = tf.placeholder(tf.int32, None, "act")
        # critic学习得到的td_error
        self.td_error = tf.placeholder(tf.float32, None, "td_error")

        with tf.variable_scope('Actor'):
            # 两层全链接层,得到动作概率
            l1 = tf.layers.dense(
                inputs=self.s,
                units=20,  # number of hidden units
                activation=tf.nn.relu,
                kernel_initializer=tf.random_normal_initializer(0., .1),
                bias_initializer=tf.constant_initializer(0.1),
                name='l1'
            )

            self.acts_prob = tf.layers.dense(
                inputs=l1,
                units=n_actions,
                activation=tf.nn.softmax,
                kernel_initializer=tf.random_normal_initializer(0., .1),
                bias_initializer=tf.constant_initializer(0.1),
                name='acts_prob'
            )

        with tf.variable_scope('exp_v'):
            # 只计算采取动作的概率
            log_prob = tf.log(self.acts_prob[0, self.a])
            # td_error = (r gamma*V_next) - V_eval
            self.exp_v = tf.reduce_mean(log_prob * self.td_error)
        with tf.variable_scope('train'):
            # 和PG一样,为了最大化self.exp_v,所以最小化-self.exp_v
            self.train_op = tf.train.AdamOptimizer(lr).minimize(-self.exp_v)

    def learn(self, s, a, td):
        """ Actor进行学习
        :param s: 状态
        :param a: 动作
        :param td: 来自critic,指导Actor对不对
        :return:
        """
        s = s[np.newaxis, :]
        feed_dict = {self.s: s, self.a: a, self.td_error: td}
        _, exp_v = self.sess.run([self.train_op, self.exp_v], feed_dict)
        return exp_v

    def choose_action(self, s):
        """ 根据actor网络选择动作
        :param s: 状态
        :return: 根据概率选择动作
        """
        s = s[np.newaxis, :]
        probs = self.sess.run(self.acts_prob, {self.s: s})
        # 根据action得到的概率选取动作(不使用max,增加一点探索性)
        return np.random.choice(np.arange(probs.shape[1]), p=probs.ravel())

以上就是使用Actor-Critic算法的一个示例,其中Critic网络中使用了TD-error,而根据上面的分析td-error有个特点是低方差但是高偏差,我们在使用r gamma*V(t 1)作为值函数的V(t)的估计量近似过程中是一直存在误差的。下一章我们介绍使用优势函数替换td-error的方案来优化这种偏差。

参考:

https://www.jianshu.com/p/9632f10bc590

https://mofanpy.com/tutorials/machine-learning/reinforcement-learning/actor-critic/

https://www.jianshu.com/p/9632f10bc590

0 人点赞