本文采用最新的强化学习技术,通过优化找到非可积多体量子系统中从初始状态到目标状态的短高保真度驱动协议,同时在协议时长的空间中呈现类自旋玻璃相变,并揭示了基于强化学习的 RL 方法在非平衡量子物理应用中的潜在用途。
May, 2017
本文提出了一种新颖的量子强化学习算法,通过将量子理论和强化学习相结合,引入了价值更新算法框架,通过概率幅度并行更新以达到在探索和利用之间取得良好平衡,并加速学习。经实验验证,该方法在一些复杂问题中表现出优越性和实用性,是量子计算在人工智能应用方面的有效探索。
Oct, 2008
该研究比较了强化学习算法和非机器学习方法在预备所需量子态问题中的效用,得出了深度 Q-learning 和策略梯度算法在此问题中效果最佳的结论。
Feb, 2019
提出了一种基于增强强化学习(QSC-ERL)的量子系统控制方法,使用增强神经网络将强化学习中的状态和动作映射到量子系统中的量子状态和控制操作,在有限资源的条件下能够实现接近 1 的保真度的量子系统学习控制,并且在量子状态演化中所需的周期较少。
Sep, 2023
利用强化学习环境,通过量子电路综合的方式可靠设计最小量子电路,针对目标初始化和量子比特数量进行了实验,达到对 2 比特贝尔态的选择性设计。
Jan, 2024
使用增强学习算法为量子电路架构设计提供了一个通用架构,可以在不编码任何关于量子物理的知识下,成功地生成多比特 GHZ 态的量子门序列。
Apr, 2021
利用偏知识控制多量子位纠缠是量子交互动力学领域中的一个未经探索的范式,本论文采用一种深度强化学习方法构建任意 4、5 和 6 量子位状态的简化量子解分路,证明了该方法能够识别和利用多量子位态的纠缠结构,为真实量子计算应用提供了潜力。
Jun, 2024
本文提出利用贝叶斯最优实验设计思想指导选择状态 - 动作对查询以达到高效学习的方法,即提出一种衡量一个状态 - 动作对对马尔可夫决策过程的最优解提供多少信息的获取函数,在每次迭代中,我们的算法最大化这个获取函数,选择提供最多信息的状态 - 动作对被查询,从而获得高效的数据驱动强化学习方法;在多个连续控制问题上实验,相比于基于模型或无模型的 RL 基线方法,本文方法学习出的最优策略所需样本量减少了 5-1000 倍。
Dec, 2021
我们提出了一个基于强化学习的算法,用于量子近似优化算法(QAOA)内的量子反馈控制,能够基于局部信息选择控制参数,并实现了训练数据的小样本转移学习。
Apr, 2020
基于梯度的量子架构搜索在 NISQ 时代提供了自动设计量子电路的框架,通过解决误差缓解、量子电路的灵活性、电路设计成本、BP 问题以及权重周期性等问题,该研究展示了梯度量子架构搜索在解决量子深度强化学习任务中的能力。