Jun, 2021

粗到细的 Q-attention:通过离散化实现视觉机器人操作的高效学习

TL;DR使用粗到细的离散化方法,取代不稳定,并且数据效率低的连续机器人学中的角色扮演者-评论者方法, 实现离散增强学习应用。该方法利用最近推出的ARM算法,将连续的下一个最佳姿态代理替换为离散的,采用粗到细的Q-attention方法,学习何时对场景的哪一部分进行缩放,实现对平移空间的近乎无损区分,并允许使用离散行动及深度Q-学习方法。实验表明,这种新的粗到细算法在几个困难的基于视觉的机器人任务上实现了最先进的性能,并且可以在几分钟内训练出现实世界的政策。