本文提出了一个用于 DRL 控制的机器人和自主系统的可靠性评估框架,并利用形式可靠性分析生成的验证证据,验证了其安全性。
Oct, 2022
通过定性和定量安全性验证问题的综合合成有效的神经屏障证书,本文提出了一种用于 DNN 控制系统的新型框架,并通过 $ extsf {UniQQ}$ 工具在四个经典 DNN 控制系统上展示了其有效性。
Apr, 2024
深度强化学习在控制系统领域得到了广泛应用,但其实际应用受到状态扰动的影响,导致系统性能下降。本研究提出了一种基于奖励鞅的鲁棒性验证方法,通过建立数学模型来描述状态扰动对系统性能的影响,为累积奖励问题提供了可靠的数值证明,并证明了奖励鞅可通过神经网络实现和训练,对不同类型的控制策略具有普适性。实验结果表明,所提出的方法的认证界限能有效地包围各种基于深度强化学习的控制系统的仿真结果。
Dec, 2023
本文通过提出一套度量强化学习算法可靠性的评估指标以及相应的统计测试,对可靠性的不同方面进行了量化测量,并对常见算法和环境进行实证研究和分析。
Dec, 2019
提出一种新的量子控制框架,通过在强化学习智能体的训练环境中加入控制噪声,利用强化学习技术优化量子计算的速度和保真度以及对泄漏和随机控制误差的抗扰性,最终取得了一定的优化成果。
Mar, 2018
我们提出了一种新的方法来训练和验证基于 NLB 的证书,通过证书的序列设计和过滤来简化验证过程,并与神经网络验证引擎一起提供正式保证,以确保 DRL 代理实现其目标并避免不安全行为,通过在 DRL 控制的航天器上进行案例研究展示了该方法的优点。
May, 2024
该研究提出了一种基于不确定性边界的深度强化学习方法,用于保护无人驾驶决策的可靠性。该方法通过限制无人车神经网络决策策略的性能不确定性,从而提高了性能表现,并能够在不同程度的训练数据下有效地保护可靠性,并提高性能。
May, 2023
基于分布式强化学习的新 Q 函数估计器和 QEMRL 算法通过误差分析和理论证明能够减小偏差和方差,并在 Atari 和 Mujoco 基准任务中显著提高了样本效率和收敛性能。
Jul, 2023
本文讨论了 Deep Neural Networks 在自动驾驶领域中的应用,提出了一种实时提取不确定性量化度量的方法,并使用此方法预测了潜在的崩溃事件。
Nov, 2018
提出了一种基于模型的深度强化学习方法,用于设计短期电压稳定性问题的紧急控制策略,并使用基于深度神经网络 的动态代理模型进行训练,最终在 IEEE 300 总线测试系统上实现了 97.5% 的样本效率和 87.7% 的训练效率。
Dec, 2022