摘要:区别于传统深度强化学习中通过从经验回放单元逐个选择的状态转移样本进行训练的方式, 针对采用整个序列轨迹作为训练样本的深度Q网络(Deep Q Network, DQN), 提出基于遗传算法的交叉操作扩充序列样本的方法. 序列轨迹是由智能体与环境交互的试错决策过程中产生, 其中会存在相似的关键状态. 以两条序列轨迹中的相似状态作为交叉点, 能产生出当前未出现过的序列轨迹, 从而达到扩充序列样本数量、增大序列样本的多样性的目的, 进而增加智能体的探索能力, 提高样本效率. 与深度Q网络随机采样训练样本和采用序列样本向后更新的算法(Episodic Backward Update, EBU)进行对比, 所提出的方法在Playing Atari 2600视频游戏中能取得更高的奖赏值.