P114 增强学习 RL ---没懂,以后再补充
发布时间:2024年01月11日




sample: 如 70% 的概率向左 20%的概率向右 10% 的概率开火
不是left 分数最高,就直接向左。而是随机sample

total reward (return) R 就是优化的目标,分数越高约好

-total reward= loss
Policy Gradient

当环境是s 时
文章来源:https://blog.csdn.net/weixin_39107270/article/details/135484461
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:chenni525@qq.com进行投诉反馈,一经查实,立即删除!