基于量子神经切向核的表示学习
量子切线核方法在无限宽度限制下分析量子机器学习模型表现的效率,对某些学习任务设计适当的电路架构至关重要。研究了量子切线核模型的可训练性和表达能力之间的联系。特别是对于全局损失函数,严密证明了全局和局部量子编码的高表达能力会导致量子切线核值向零的指数浓缩。而对于局部损失函数,由于高表达能力,此问题仍然存在,但可以部分缓解。通过广泛的数值模拟支持了我们的理论。我们的发现揭示了量子神经切线核的一个关键特征,为实际应用中宽量子变分电路模型的设计提供了有价值的见解。
Nov, 2023
本文提出了一种端到端的量子神经网络 TTN-VQC,结合了张量列车网络和变分量子电路,进行降维和多功能回归,对其表示和概括能力进行了误差性能分析,证实了在手写数字分类数据集上进行功能回归的实验结果。
Jun, 2022
本文研究了变分量子电路在深度强化学习中的应用,利用量子信息编码方案减少模型参数,用经验回放和目标网络重塑经典深度强化学习算法,成功证明了变分量子电路可以用于决策制定和政策选择强化学习,适用于许多即将到来的近期量子计算机。
Jun, 2019
该研究论文探讨了量子机器学习中基于内核的方法,使用神经切向核理论,Kerr 非线性的一阶微扰理论和非微扰数值模拟,以及基于电路 QED 的实验协议来展示在收敛时间和泛化误差方面能够实现一些‘量子增强’。
May, 2022
本文提出了一种用于监督学习的低深度可变量量子算法,其使用参数化单个和双量子位门的量子电路以及单量子位测量来编码输入特征向量并进行分类,从而实现了可学习参数数量与输入维度的多项式对数关系。通过模拟,该电路为标准经典基准数据集提供了很好的分类性能,而且需要的参数数量极少。
Apr, 2018
本文提出一种基于张量网络的量子计算方法,用于解决当前在量子计算中机器学习所面临的挑战。在此方法下,经典计算和量子计算可共享同样的理论和算法基础,且张量网络电路在量子计算机模型的训练中具有高效节省的优势,并通过对手写识别模型的数值实验验证了其可行性。
Mar, 2018
本文提出了一种名为 Pre+TTN-VQC 的学习方法,将一个预训练的张量列网络(TTN)集成到 TTN-VQC 架构中,以缓解 Barren Plateau 问题并提高量子神经网络的表示和概括能力,实验验证了该方法在手写数字分类中的有效性。
May, 2023
量子计算通过减少可训练参数来提高机器学习效果,并且通过使用变分量子电路 (VQCs) 融合经典优化技术,研究人员致力于在噪声中等规模量子时代 (NISQ) 中,应用 VQCs 到强化学习中以减少参数并提高超参数稳定性及整体性能。
May, 2024
我们提出了分层学习,一种用于训练大规模变分量子电路的新颖变分体系结构,并用量子电路比特机 (QCBMs) 测试和基准测试我们的技术。
Nov, 2023