- 非定态强化学习中的节奏适应性
我们提出了一个名为 “ProST” 的前瞻性节奏框架,用于解决非稳态强化学习中的时间同步问题,通过计算最优的交互时间,实现在不同环境变化速度下的政策优化。实验结果表明,ProST 框架在高维度非稳态环境中获得了比现有方法更高的在线回报。
- AVOIDDS: 基于飞机视觉的入侵者检测数据集与模拟器
本文介绍了 AVOIDDS,这是一个逼真的目标检测基准测试,包含了 72000 个逼真的图片数据集,以及相应的模型评估接口和整个仿真问题的解决方案,在安全关键应用中,这样的基准测试将有助于设计稳健的机器学习系统。
- 动态多目标优化的向量自回归进化
本文提出了一个矢量自回归进化(VARE)方法,它由矢量自回归(VAR)和环境感知超级突变(EAH)组成,以有效预测动态环境中的移动解决方案。研究表明,VARE 可用于处理各种动态环境下的优化问题,并在时间和效果上都优于其他算法。
- 渐进上下文动态自适应连续强化学习
本文提出一种基于动态自适应的连续强化学习框架 DaCoRL,采用渐进式上下文建模来对动态环境中的任务进行聚类,利用可扩展多头神经网络来逼近策略,同时借助在线贝叶斯聚类技术精确地分类当前任务并实例化所需的新上下文。在多个机器人导航任务和 Mu - 评估基于模型的强化学习方法的适应性
该研究探讨了深度模型强化学习中的自适应能力问题,指出当前常用的模型方法未能很好地适应环境变化,并进一步研究了导致这种差异的原因和技术,最后通过实验证明了改进后的模型方法在实现自适应上的有效性。
- CVPR异构 GNN 长期视觉地图稀疏化
本文介绍了一种使用图神经网络模型建模三维稠密地图为异构图并预测三维点重要性得分的方法,以选取具有未来重定位价值和稀疏地图覆盖的点。该方法在自适应环境中提取出稳定和广泛可见的地图点,并在定位性能方面优于基线模型。
- AdaRL:迁移强化学习中的适应什么、在哪里和如何适应
提出了一种基于图表示学习的 RL 适应策略 AdaRL,只需少量样本即可可靠且高效地适应环境变化,结果表明 AdaRL 在 Cartpole 和 Atari 游戏中的表现良好。
- MobilBye:使用相机欺骗攻击 ADAS
本文通过对 Mobileye 的实际测试,注入环境干扰(比如颜色、形状、速度、直径和光线)来检验其鲁棒性,发现它可以被欺骗,判断无人机携带的冒牌交通标志为真实的事实
- 可配置系统性能建模的迁移学习:探索性分析
本文在四个软件系统中进行了实验研究,以了解何时在性能建模中应用迁移学习有益。 结果表明,在环境变化较小的情况下,我们可以通过对性能模型应用线性变换来理解目标环境的性能行为,而在环境变化严重的情况下,我们只能迁移使采样更有效的知识,例如通过降