利用遗传算法和机器学习模型,提出了 STARLA,一种搜索 DRL 代理策略的方法。我们将其应用于广泛使用的 Deep-Q-Learning 代理,表明它比随机测试更能发现与代理策略有关的故障,并研究了如何提取描述 DRL 代理故障情况的规则。
Jun, 2022
研究开发了基于搜索的深度强化学习测试框架,用于评估深度强化学习代理的性能和安全性,其中包括利用搜索算法进行参考跟踪的安全测试和创建多样化的跟踪以评估代理的总体性能。
May, 2022
本研究采用深度强化学习(DRL)技术来实现自学习机制的游戏测试框架,可提高测试覆盖率,发现并解决游戏内的漏洞及其他问题,特别适用于第一人称射击类型的游戏。
Mar, 2021
本文综述了深度强化学习算法在自动驾驶任务上的应用,包括分类、验证、测试和强化现有强化学习算法解决方案的方法,还介绍了相关领域和挑战。
Feb, 2020
提出了分布式鲁棒 Q 学习及其平均奖励变体,且在单轨迹训练的基础上,给出了渐近收敛保证和实验验证,证明其在扰动环境下的优越性。
Jan, 2023
本文调查研究 Deep Reinforcement Learning (DRL) 中关于任务和领域适应以及泛化的最新发展,讨论未来如何增强算法的适应性和泛化能力,以解决更广泛的实际问题。
Feb, 2022
复制和扩展了前一次经验研究,研究表明引入强化学习与多目标搜索相结合的方式,在深度神经网络系统的在线测试中优于其他技术(随机搜索和多目标搜索)。新的 RL 代理能够收敛到一个有效策略,明显优于随机测试,并且揭示了进一步探索如何充分利用 RL 进行在线 ADS 测试的可能改进方向。
Mar, 2024
深度强化学习可以通过对抗训练提高其鲁棒性和可靠性,本研究对当代对抗性攻击方法进行了深入分析和分类,以提高深度强化学习代理的鲁棒性。
提出了一种稳健性的敌对训练 (robust adversarial reinforcement learning, RARL) 方法,该方法将敌对训练与零和极小优化相结合,通过训练一个智能体,使其能够在真实系统上的杂乱因素和不确定性下操作,并在多种环境中进行了验证。
Mar, 2017
本文首次探讨了深度强化学习中可能泄露隐私信息的情况,并提出了两种方法来推断训练后代理的潜在隐私信息。作者在不同情境下进行了大量实验并表明以上两种方法可以有效地从训练后的代理中推断出敏感地图信息。
Apr, 2019