基于神经网络的量子反馈强化学习
本文介绍了使用量子循环神经网络和深度 Q-learning 算法来解决部分可观察环境中的量子强化学习问题,并且在数值模拟中证明了该方法在标准基准测试如 Cart-Pole 中的结果比经典 DRQN 更加稳定和具有更高的平均分数。
Oct, 2022
提出一种新的量子控制框架,通过在强化学习智能体的训练环境中加入控制噪声,利用强化学习技术优化量子计算的速度和保真度以及对泄漏和随机控制误差的抗扰性,最终取得了一定的优化成果。
Mar, 2018
本研究旨在探究基于门型量子计算机的参数量子电路,通过集成最新的 Qiskit 和 PyTorch 框架,与纯经典深度神经网络进行比较,评估其在模型非自由强化学习问题中的潜力,以及在解决迷宫问题或其他强化学习问题方面、深度量子学习的前景。
Apr, 2023
该研究论文介绍了量子计算在当前 NISQ 时代的限制,并提出了通过混合量子机器学习来改善量子计算架构的方法,重点是利用强化学习来优化当前的量子计算方法,并介绍了由量子架构搜索和量子电路优化引起的各种挑战,以及提出的用于学习控制一组万能量子门的具体框架,并提供基准结果以评估当前最先进算法的优点和短处。
Dec, 2023
本研究使用基于强化学习的方法对量子电路进行优化,通过深度卷积神经网络,实现了对于特定架构的任意量子电路的自主学习及优化。对 12 比特电路进行实验得出优化效果,平均深度降低 27%,门数降低 15%,并探讨了方法在近期量子设备上的可行性。
Mar, 2021
本文提出了一种采用异步训练 QRL 代理的方法,具体选择了优势演员评论家变分量子策略的异步训练,并通过数值模拟证明,相对于采用相似模型大小和架构的经典代理,采用异步训练 QRL 代理在考虑的任务中可以达到相似或更高的性能
Jan, 2023
使用变分量子电路作为函数逼近器,提出了量子自然策略梯度(Quantum Natural Policy Gradient,QNPG)算法。在 Contextual Bandits 环境中进行实验,证明 QNPG 相对于基于一阶的训练具有更快的收敛速度和稳定性,从而减少了样本复杂度,并在 12 量子比特硬件设备上进行了训练。
Apr, 2023
通过机器学习的波函数系统性降低了量子物理中多体问题的复杂度,通过基于人工神经网络的变化神经元的量子状态的变分表示和强化学习方案,能够准确地描述复杂相互作用量子系统的时间演变和平衡和动态特性,为解决量子多体问题提供了新的强有力的工具。
Jun, 2016
基于经验证据,本研究使用变分量子电路 (VQC) 作为函数逼近器构建了深度 Q - 学习模型,研究了该模型在经典控制基准环境中的性能和可训练性,探讨了数据重新上传对这些指标的影响,并发现 VQC 在这种环境中具有适用性,且在逼近 2 设计时,增加量子比特数不会导致梯度的幅度和方差指数级递减。
Jan, 2024
本文提出了一种新颖的量子强化学习算法,通过将量子理论和强化学习相结合,引入了价值更新算法框架,通过概率幅度并行更新以达到在探索和利用之间取得良好平衡,并加速学习。经实验验证,该方法在一些复杂问题中表现出优越性和实用性,是量子计算在人工智能应用方面的有效探索。
Oct, 2008