版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/Solo95/article/details/103302108
常见的policy gradient算法,写出来挺简单的,但是有一个复杂的推导过程,这里就略去了。
Vanilla Policy Gradient Algorithm
GtiG_t^iGti可以是TD estimate、bootsrap,也可以是简单的从t开始的reward。
图示即为实现monototic imporvement
Gti=∑t′=tTrtiG_t^i=sum_{t'=t}^Tau r_t^iGti=∑t′=tTrti A^ti=Gti−b(st)hat{A}_t^i=G_t^i-b(s_t)A^ti=Gti−b(st) 上面两行是为了更好地得到梯度的估计,在使用少量数据的情况下,并减少variance。
两部分都很重要,实现的是不一样的东西。
Rti^hat{R_t^i}Rti^的计算方式如下: