
摘要
基于文本的游戏已成为强化学习(Reinforcement Learning, RL)研究的重要测试平台,要求RL代理将基于语境的语言理解与顺序决策相结合。本文探讨了向RL代理注入常识知识的问题。这种知识将使代理能够通过排除不可能的行为来高效地行动,并进行前瞻性规划以确定当前行为可能对未来的世界状态产生何种影响。我们设计了一个新的基于文本的游戏环境,称为TextWorld Commonsense(TWC),用于训练和评估具有特定类型关于对象、其属性及其可操作性的常识知识的RL代理。此外,我们引入了几种基线RL代理,这些代理能够跟踪顺序上下文并从ConceptNet中动态检索相关常识知识。实验结果表明,在TWC环境中融入常识知识的代理表现更佳,同时行动更加高效。我们还进行了用户研究以估算人类在TWC中的表现,并展示了未来有巨大的改进空间。
代码仓库
IBM/commonsense-rl
官方
pytorch
GitHub 中提及
cognitiveailab/textworldexpress
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| commonsense-rl-on-commonsense-rl | Human | Avg #Steps: 15.00 ± 3.29 |
| commonsense-rl-on-commonsense-rl | Optimal | Avg #Steps: 15.00 ± 2.00 |
| commonsense-rl-on-commonsense-rl | KG-A2C | Avg #Steps: 49.36 ± 7.50 |
| commonsense-rl-on-commonsense-rl | TNC-A2C | Avg #Steps: 43.27 ± 0.70 |
| commonsense-rl-on-commonsense-rl | LSTM-A2C | Avg #Steps: 49.21 ± 0.58 |