本文展示了可以将时间有序的量子演化视作层次有序的神经网络,并将鲁棒控制看作是训练高度泛化的神经网络,利用批处理优化技巧使优化的结果能够显着提高控制的鲁棒性和保持高保真度。
Nov, 2018
本研究构建了一个深度强化学习的神经网络(DDDQN)来控制可控参数的时间依赖性,以高效、精确地实现两种典型的量子门:单量子比特哈达玛门和双量子比特 CNOT 门,从而实现了高效、精确的量子门控制,为更多的深度强化学习技术在量子控制问题中的研究铺平了道路。
Feb, 2019
使用深度强化学习方法,在超导量子计算机上设计出一组通用的、能够容错的逻辑门,无需了解系统的特定哈密顿模型、控制或基础误差过程并表现出卓越的性能,与其他黑盒优化技术相比具有可比性或略微更优的性能。
May, 2021
本研究使用基于强化学习的方法对量子电路进行优化,通过深度卷积神经网络,实现了对于特定架构的任意量子电路的自主学习及优化。对 12 比特电路进行实验得出优化效果,平均深度降低 27%,门数降低 15%,并探讨了方法在近期量子设备上的可行性。
Mar, 2021
提出了一种基于增强强化学习(QSC-ERL)的量子系统控制方法,使用增强神经网络将强化学习中的状态和动作映射到量子系统中的量子状态和控制操作,在有限资源的条件下能够实现接近 1 的保真度的量子系统学习控制,并且在量子状态演化中所需的周期较少。
Sep, 2023
本研究展示了利用神经网络强化学习在量子纠错任务中独立发现量子纠错策略的能力,并提出了包括二阶段学习和反馈优化在内的策略。这项工作不仅在量子计算方面具有重要作用,还显示了神经网络强化学习在物理学领域的潜力。
Feb, 2018
本研究旨在探究基于门型量子计算机的参数量子电路,通过集成最新的 Qiskit 和 PyTorch 框架,与纯经典深度神经网络进行比较,评估其在模型非自由强化学习问题中的潜力,以及在解决迷宫问题或其他强化学习问题方面、深度量子学习的前景。
Apr, 2023
利用基于神经常微分方程(ODE)的归纳偏置,提出了一种基于模型的强化学习(RL)方法,用于在噪声时变门优化中近似环境模型,其时间依赖部分包括控制方式完全已知。与标准的基于模型的 RL 相比,我们的方法在样本复杂度方面具有数量级的优势,适用于控制一、二量子位系统。
该研究比较了强化学习算法和非机器学习方法在预备所需量子态问题中的效用,得出了深度 Q-learning 和策略梯度算法在此问题中效果最佳的结论。
我们提出了一个基于强化学习的算法,用于量子近似优化算法(QAOA)内的量子反馈控制,能够基于局部信息选择控制参数,并实现了训练数据的小样本转移学习。
Apr, 2020