Reinforcement Learning as One Big Sequence Modeling Problem
2021/8/28 6:06:07
本文主要是介绍Reinforcement Learning as One Big Sequence Modeling Problem,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
发表时间:2021
文章要点:这篇文章把RL看作序列建模问题(sequence modeling problem),直接用transformer来拟合整个序列
(reats states, actions, and rewards as simply a stream of data,其实还拟合了reward-to-to return),拟合完了后就直接用这个transformer来做预测,中间还用了beam search来选候选动作(beam search参见知乎链接)。然后和imitation learning,offline RL作比较,取得了相仿甚至更优的效果。注意这个模型只能处理离散化的输入,所以如果是连续空间,还要把state,action,reward都离散化。
总结:这篇文章和Decision Transformer很类似,而且都是伯克利的,感觉就是一群人干的。他想说这么做的好处就是避免了去学policy和value,就避免了RL里面遇到的很多问题。比如绕开用TD或者policy gradient方法去求,就不需要去设计复杂的约束,以及考虑估计不准等等问题了。好像说的有点道理,但是回过头来想,这不就是个模仿学习吗?你看他的实验还是只能在imitation learning ,offline RL这种上面做,其实就是因为它只有模仿或者说监督学习,没有policy improvement的过程。所以还是不能用在general RL的问题上,毕竟这个东西没法做policy improvement,就没法和环境交互产生新策略。
疑问:离散化的过程不知道原理:
这篇关于Reinforcement Learning as One Big Sequence Modeling Problem的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2025-01-09CMS内容管理系统是什么?如何选择适合你的平台?
- 2025-01-08CCPM如何缩短项目周期并降低风险?
- 2025-01-08Omnivore 替代品 Readeck 安装与使用教程
- 2025-01-07Cursor 收费太贵?3分钟教你接入超低价 DeepSeek-V3,代码质量逼近 Claude 3.5
- 2025-01-06PingCAP 连续两年入选 Gartner 云数据库管理系统魔力象限“荣誉提及”
- 2025-01-05Easysearch 可搜索快照功能,看这篇就够了
- 2025-01-04BOT+EPC模式在基础设施项目中的应用与优势
- 2025-01-03用LangChain构建会检索和搜索的智能聊天机器人指南
- 2025-01-03图像文字理解,OCR、大模型还是多模态模型?PalliGema2在QLoRA技术上的微调与应用
- 2025-01-03混合搜索:用LanceDB实现语义和关键词结合的搜索技术(应用于实际项目)