
摘要
深度强化学习社区对DQN算法进行了多项独立改进。然而,目前尚不清楚这些扩展中哪些是互补的,可以有效地结合在一起。本文研究了DQN算法的六种扩展,并对其组合进行了实证分析。实验结果表明,这种组合在Atari 2600基准测试中表现出色,不仅在数据效率方面达到了最先进水平,最终性能也同样优异。此外,我们还提供了一项详细的消融研究结果,展示了每个组件对整体性能的贡献。
代码仓库
facebookresearch/Horizon
pytorch
GitHub 中提及
daviddcho/supermario
pytorch
GitHub 中提及
htdt/rainbow
pytorch
GitHub 中提及
efg59/Rainbow
GitHub 中提及
floringogianu/atari-agents
pytorch
GitHub 中提及
JayLohokare/banana-world-navigation
tf
GitHub 中提及
chainer/chainerrl
pytorch
GitHub 中提及
deconlabs/Binanace-trading-simulation
pytorch
GitHub 中提及
atavakol/action-hypergraph-networks
tf
GitHub 中提及
mohith-sakthivel/rainbow_dqn
pytorch
GitHub 中提及
BY571/DQN-Atari-Agents
pytorch
GitHub 中提及
liuyuezhang/pyrl
pytorch
GitHub 中提及
robintyh1/icml2021-pengqlambda
tf
GitHub 中提及
eddynelson/dqn
tf
GitHub 中提及
coreylowman/rl_simply
pytorch
GitHub 中提及
michaelnny/deep_rl_zoo
pytorch
GitHub 中提及
dsapandora/s_cera
tf
GitHub 中提及
mindspore-courses/Rainbow-MindSpore
mindspore
GitHub 中提及
jvoynow/DQN-analysis-with-2048
GitHub 中提及
xusophia/DataSciFinalProj
pytorch
GitHub 中提及
amzoyang/CS-221-Final-Project
pytorch
GitHub 中提及
Curt-Park/rainbow-is-all-you-need
GitHub 中提及
lireer/ricochet-robot-solver
GitHub 中提及
deconlabs/Binanace_trading_simulation
pytorch
GitHub 中提及
thu-ml/tianshou
pytorch
GitHub 中提及
Kaixhin/Rainbow
pytorch
GitHub 中提及
deconlabs/TradingZoo-Dynamic-fee-simulation
pytorch
GitHub 中提及
roboticist-by-day/Rainbow_DQN
pytorch
GitHub 中提及
facebookresearch/ReAgent
pytorch
GitHub 中提及
chandar-lab/RLHive
pytorch
jacobkooi/hadamax
jax
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| atari-games-on-atari-2600-ms-pacman | Rainbow | Score: 2570.2 |
| atari-games-on-atari-2600-space-invaders | Rainbow | Score: 12629.0 |
| atari-games-on-atari-57 | Rainbow DQN | Human World Record Breakthrough: 4 Mean Human Normalized Score: 873.97% |
| atari-games-on-atari-game | Rainbow | Human World Record Breakthrough: 4 |
| atari-games-on-atari-games | Rainbow DQN | Mean Human Normalized Score: 873.97% |
| montezuma-s-revenge-on-atari-2600-montezuma-s | Rainbow | Average Return (NoOp): 384 |