量子强化学习
本文介绍了使用量子循环神经网络和深度 Q-learning 算法来解决部分可观察环境中的量子强化学习问题,并且在数值模拟中证明了该方法在标准基准测试如 Cart-Pole 中的结果比经典 DRQN 更加稳定和具有更高的平均分数。
Oct, 2022
本文提出了一种采用异步训练 QRL 代理的方法,具体选择了优势演员评论家变分量子策略的异步训练,并通过数值模拟证明,相对于采用相似模型大小和架构的经典代理,采用异步训练 QRL 代理在考虑的任务中可以达到相似或更高的性能
Jan, 2023
提出了一种基于增强强化学习(QSC-ERL)的量子系统控制方法,使用增强神经网络将强化学习中的状态和动作映射到量子系统中的量子状态和控制操作,在有限资源的条件下能够实现接近 1 的保真度的量子系统学习控制,并且在量子状态演化中所需的周期较少。
Sep, 2023
量子强化学习在非交换环境中重新界定了决策边界,通过引入量子系统的内在特性,利用希尔伯特空间中的代理状态空间表征、引入非交换的量子动作和基于量子力学的奇米特算子作为奖励函数,连接量子贝尔曼方程与环境的非交换度,设计了一个考虑量子系统纠缠动力学并利用潜在量子并行性的量子优势函数,解决了量子探索中的重要挑战。
Apr, 2024
该研究论文介绍了量子计算在当前 NISQ 时代的限制,并提出了通过混合量子机器学习来改善量子计算架构的方法,重点是利用强化学习来优化当前的量子计算方法,并介绍了由量子架构搜索和量子电路优化引起的各种挑战,以及提出的用于学习控制一组万能量子门的具体框架,并提供基准结果以评估当前最先进算法的优点和短处。
Dec, 2023
本文采用最新的强化学习技术,通过优化找到非可积多体量子系统中从初始状态到目标状态的短高保真度驱动协议,同时在协议时长的空间中呈现类自旋玻璃相变,并揭示了基于强化学习的 RL 方法在非平衡量子物理应用中的潜在用途。
May, 2017
本文介绍了一种用于解决离散和连续状态空间的 RL 任务的训练方法,该方法基于深度 Q-learning 算法。研究通过消融研究探究了量子 Q-learning 算法的体系结构选择对于成功解决某些环境的重要性,并提出了用于选择适当的观测量的方法,以比较量子和经典 DQN 算法的性能.
Mar, 2021
本研究旨在探究基于门型量子计算机的参数量子电路,通过集成最新的 Qiskit 和 PyTorch 框架,与纯经典深度神经网络进行比较,评估其在模型非自由强化学习问题中的潜力,以及在解决迷宫问题或其他强化学习问题方面、深度量子学习的前景。
Apr, 2023
该研究比较了强化学习算法和非机器学习方法在预备所需量子态问题中的效用,得出了深度 Q-learning 和策略梯度算法在此问题中效果最佳的结论。
Feb, 2019