Q-Learning与DQN在路径规划中的深度学习应用
路径规划里的强化学习,说实话,用过 Q-Learning 和 DQN 的都知道,调参是个麻烦事。不过你要是刚入门,下面这些资源还是挺友好的,代码清晰,例子也蛮实用的。是用 Keras 搭配 DQN,训练个 Flappy Bird
不成问题。
Q-learning 的代码那份资源
结构比较清晰,状态转移、奖励机制这些写得挺标准。你只要改改环境,就能跑你自己的场景。传送门:Q-learning 代码
基于栅格法的路径规划
这个比较适合用在那种地图离散的场景,比如机器人走迷宫。网格+Q-Learning,逻辑上直观。链接在这:Python 实现栅格法 Q-Learning
想玩深一点的 DQN
可以看看这个:Keras 最小 DQN 源码,用的是 DQN 和 DDQN 两种方式。网络结构不复杂,适合改着用。
有个专门讲 DQN 的
从 经验回放 到 目标网络,都写得蛮清楚。想了解 DQN 底层原理的可以看这个:深度强化学习 DQN
再来个进阶玩法
把遗传算法和 Q-Learning 结合,用来优化策略收敛速度,嗯,蛮有意思。适合研究型开发。链接:遗传算法+Q-Learning
推荐个实战例子
用 DQN 玩 Flappy Bird
,有图像、有策略更新,比较全的一个小项目。传送门:DQN 实战 Flappy Bird
如果你是搞路径规划或者想入门强化学习的,这几份资源可以帮你少踩不少坑,是带源码的,直接能跑,还能改。
下载地址
用户评论