本文提出了两种基于机器学习的方法,采用强化学习 (RL) 框架和核密度估计 (KDE) 技术,分别用于优化 QAOA 电路,从小规模问题实例中学习,然后在较大的问题实例中使用,结果表明与其他现成的优化器相比,这两种方法可以将优化度缺口减少多达 30.15 个因子。
Nov, 2019
本文采用最新的强化学习技术,通过优化找到非可积多体量子系统中从初始状态到目标状态的短高保真度驱动协议,同时在协议时长的空间中呈现类自旋玻璃相变,并揭示了基于强化学习的 RL 方法在非平衡量子物理应用中的潜在用途。
May, 2017
设计出更好的用于组合优化的量子算法,结合强化学习增强递归 QAOA 表现,与传统 QAOA 相比,表现更好。
Jul, 2022
本文介绍了一种用于解决离散和连续状态空间的 RL 任务的训练方法,该方法基于深度 Q-learning 算法。研究通过消融研究探究了量子 Q-learning 算法的体系结构选择对于成功解决某些环境的重要性,并提出了用于选择适当的观测量的方法,以比较量子和经典 DQN 算法的性能.
Mar, 2021
本文提出了一种基于量子启发式算法 + 强化学习的方法,在解决 Ising 能量最小化问题方面,该方法通过调整其中一个参数以改进最近看到的解,并使用一种新的 Rescaled Rank Reward (R3) 方法来提高稳定的自我博弈训练效果。训练后可在任何问题实例中采样高质量的解,并优于基线启发式和黑盒超参数优化方法。
Feb, 2020
提出一种新的量子控制框架,通过在强化学习智能体的训练环境中加入控制噪声,利用强化学习技术优化量子计算的速度和保真度以及对泄漏和随机控制误差的抗扰性,最终取得了一定的优化成果。
Mar, 2018
本文提出了一种新颖的量子强化学习算法,通过将量子理论和强化学习相结合,引入了价值更新算法框架,通过概率幅度并行更新以达到在探索和利用之间取得良好平衡,并加速学习。经实验验证,该方法在一些复杂问题中表现出优越性和实用性,是量子计算在人工智能应用方面的有效探索。
Oct, 2008
多智能体强化学习中的量子强化学习通过使用量子力学的内在属性降低了模型的可训练参数,我们基于无梯度量子强化学习的现有方法,并通过变分量子电路的树状方法提出了多智能体强化学习的方法,使用进化优化算法,我们在 Coin Game 环境中评估了我们的方法并将其与经典方法进行比较,研究表明我们的变分量子电路方法相比于具有相似可训练参数数量的神经网络表现出更好的性能,并且相对于更大的神经网络,我们的方法使用较少的参数实现类似的结果,减少了 97.88% 的参数。
Nov, 2023
本文提出了一种采用异步训练 QRL 代理的方法,具体选择了优势演员评论家变分量子策略的异步训练,并通过数值模拟证明,相对于采用相似模型大小和架构的经典代理,采用异步训练 QRL 代理在考虑的任务中可以达到相似或更高的性能
Jan, 2023
利用基于神经常微分方程(ODE)的归纳偏置,提出了一种基于模型的强化学习(RL)方法,用于在噪声时变门优化中近似环境模型,其时间依赖部分包括控制方式完全已知。与标准的基于模型的 RL 相比,我们的方法在样本复杂度方面具有数量级的优势,适用于控制一、二量子位系统。
Apr, 2023