无模型强化学习在光学自动实验控制中的应用
通过实施和适应一种名为 AO 的 RL 方法(PO4AO),我们在 ESO 总部的 GHOST 测试台上展示了这种方法在实验室环境中的强大性能,该实验允许与推理并行进行训练,对于天空操作至关重要。
Dec, 2023
通过使用强化学习技术和环境噪声模型,我们研究了量子设备参数的连续校准的无模型控制循环,并以肯尼迪接收器为基础的远距离量子通信协议的数值模拟应用作为示例。
Apr, 2024
本研究提出了一种基于强化学习的模型参数推断框架,该框架以物理模型响应跟踪为目标,利用一种约束 Lyapunov 基础的 actor-critic (CLAC) 算法,考虑了大规模和高维数据以及嘈杂的真实世界条件下的鲁棒性,实现了在两个基于物理模型的诊断测试案例中的优秀表现。
Jun, 2020
本文研究了光学卫星通信(OSGC)中的自适应光学系统问题,并提出了使用强化学习(RL)来减小系统的延迟、大小和成本,通过与低成本四分之一光电二极管进行交互来学习控制策略的方案,并开发了一个 AO RL 环境来评估 RL 的性能。实证分析表明,PPO 优于 Soft-Actor-Critic 和 Deep Deterministic Policy Gradient,并且在 250 次训练之后,PPO 收敛到理想 Shack-Hartmann 传感器所能获得的最大奖励的 86%,表明强化学习在无波阵面传感器的 OSGC 中具有潜在的优势。
Mar, 2023
用于天文学调度优化问题的强化学习算法,在模拟数据集上经过多次改进和调整后,显示出很高的性能,对于特定的天文学挑战,这是第一次对离线强化学习算法进行比较和评估的研究。
Nov, 2023
本文采用最新的强化学习技术,通过优化找到非可积多体量子系统中从初始状态到目标状态的短高保真度驱动协议,同时在协议时长的空间中呈现类自旋玻璃相变,并揭示了基于强化学习的 RL 方法在非平衡量子物理应用中的潜在用途。
May, 2017
本文提供了一个应对强化学习的框架,解决了建模不确定性和计算成本高的问题,通过使用强化学习来解决随机动态规划方程,所得的强化学习控制器对多种类型的约束条件是安全的,并且可以主动学习建模不确定性,实现实时学习。通过模拟实例证明了提出方法的有效性。
Sep, 2023
本文提出了一种基于 Q-learning 和 IoAlergia 的强化学习方法,用于处理部分可观察环境下的控制系统策略生成,将 RL 与学习环境模型相结合以提供抽象的环境状态获取。实验结果表明,该方法在性能表现上优于六种当下的深度 RL 技术。
Jun, 2022
本研究提出了一种基于量子干涉的光子强化学习算法,扩展了传统方法以解决动态环境下的多智能体强化学习问题,并演示了多智能体强化学习可以通过光子干涉加速,以此避免智能体之间的冲突。
Dec, 2022