理解何时动力学不变数据增强对无模型强化学习更新有益
本研究提出了一种名为Reinforcement Learning with Augmented Data的加强数据的强化学习算法,将图像数据进行数据增强、使用深度神经网络等算法,提取出了数据效率、推广性等方面的关键特征。实验结果表明,该算法可以在DeepMind和OpenAI Gym等常见测试用例中优于当前最先进的算法。
Apr, 2020
本文提出了SOft Data Augmentation(SODA)方法,通过在编码器上施加约束,最大化增强和非增强数据的潜在表示之间的互信息,从而提高强化学习的样本效率、泛化能力和稳定性,实验表明该方法显著优于最先进的基于视觉的RL方法。
Nov, 2020
本文提供了关于数据扩增在视觉强化学习中应用的广泛评论。作者提出了一个统一的框架,研究了数据扩增技术在视觉强化学习中的作用,并提供了一些方法来更好地利用扩增数据。最后,作者还通过系统的实证评估,总结了本文的研究内容及未来研究工作的展望。
Oct, 2022
本文探究了数据增强技术在视觉强化学习中的有效性,研究数据增强的相关特征对样本效率的影响并提出了新的操作方法 Random PadResize 和循环增强(Cycling Augmentation)以提高样本利用效率。在DeepMind控制套件和CARLA驾驶模拟器上的广泛评估表明,与先前的最先进方法相比,我们的方法实现了更好的样本效率。
May, 2023
各种数据增强技术在基于图像的深度强化学习中已被提出。通过分析现有方法,我们可以更好地理解它们及其不同组件的效果,并确定如何更好地利用数据增强。此分析表明了如何通过选择不同的数据增强变换来计算目标 Q 值,以更加有原则地利用数据增强。此外,我们提出了一种名为切线传递(tangent prop)的正则化项,在若干领域中验证了我们的论点,并且与不同基准模型相比,在大多数环境中取得了最先进的性能,并在某些复杂环境中展现了更高的样本效率和更好的泛化能力。
Feb, 2024
AdaAugment是一种无需调参的创新自适应增强方法,利用强化学习根据目标网络的实时反馈动态调整个别训练样本的增强程度,通过优化策略网络和目标网络的联合来有效适应增强程度,从而在效果和效率上一致性地优于其他最先进的数据增强方法。
May, 2024
本研究针对持续强化学习中数据效率不足的问题,提出了一种新颖的数据增强方法——对抗性增强与梯度情节记忆(Adv-GEM)。通过系统总结现有数据增强方法并进行大量实验,发现多种数据增强手段能够显著提升持续强化学习算法的表现,降低灾难性遗忘,具有重要的应用潜力。
Aug, 2024
本文解决了在连续强化学习中数据效率不足的问题,探索了数据增强技术的有效性。通过总结现有的数据增强方法并提出一种新的对抗增强方法Adv-GEM,实验证明这些数据增强技术能够显著提高传统连续强化学习算法的表现,减少灾难性遗忘,并促进知识的前向转移。
Aug, 2024
本研究解决了强化学习在连续控制中的数据效率问题,尤其是在状态驱动的控制场景下。作者提出了一种基于欧几里得对称性的创新数据增强方法,该方法通过对肢体配置特征进行变换,显著提高了数据效率和最终性能。研究显示,这种新方法在多种连续控制任务中表现优异,具有重要的应用潜力。
Oct, 2024