量子生成模型中的可训练性障碍与机遇
通过研究局部极小值和 Barren 高原现象,证明在全局最小能量附近未知最优参数的情况下,一类浅而无 barren 高原的变分量子模型具有很少的局部极小值,以至于在没有好的初值参数的情况下无法进行训练。此外,通过统计查询框架研究变分量子算法的可训练性,并表明大多数量子模型的噪声优化都需要指数级的查询数,虽然有希望通过研究某些类别的变分算法来解决这个问题。
May, 2022
量子机器学习中参数化量子电路的训练性和非量子化性之间的关系尚未解决,本研究从机器学习的角度出发,提出了相关概念的准确定义,并研究了变分量子机器学习模型的变分性与量子化性之间的关系,同时介绍了可训练且非量子化的 PQC-based QML 模型的构建方法。
Jun, 2024
通过对神经网络中变分参数的大量抑制来定义惰性,其中量子情况下的抑制对于随机化变分量子电路的量子比特数量呈指数衰减。我们讨论了惰性与由量子物理学家在文献中创建的量子机器学习中的荒漠高原的差异,对梯度下降期间损失函数的平坦情况进行了讨论。同时,我们揭示了在一定的噪声模型下,量子变分算法对于过度参数化的噪声具有弹性。
Jun, 2022
通过量子电路出生机器实现深度量子电路的生成建模,并提出了一种基于梯度的学习算法来最小化核化的最大均值偏差损失函数,该算法可以在近期的量子设备上运行并在生成建模方面显现出量子优势。
Apr, 2018
本文使用信息几何工具,定义了量子和经典神经网络的表达能力,将有效维度作为证明表达能力的新广义边界,并建立了一个强大的表达能力度量。我们展示了量子神经网络能够比相似的经典神经网络实现更好的有效维度,并因其更均匀分布的 Fisher 信息谱而显示了对枯燥的高原问题具有适应性并具有快速的训练能力。我们的工作是第一个通过更高的有效维度和更快的训练能力证明精心设计的量子神经网络优于经典神经网络的,并在实际量子硬件上进行了验证。
Oct, 2020
本文研究了嘈杂中等规模量子设备的参数化量子电路的梯度估计和优化问题。作者指出,由于希尔伯特空间的指数维度和梯度估计复杂度,随机电路不适用于超过少量量子比特的混合量子 - 经典算法。
Mar, 2018
研究了参数化量子电路为基础的强化学习策略的可训练性,发现拥有指数小梯度和梯度爆炸的标准荒原问题,以及这些现象与基态分区和分区映射相关,采用连续型分区的基态可以确保多项式数量的训练窗口和测量次数,该研究在多臂赌博机环境中进行了实证验证。
Jun, 2024
通过嵌入技术添加冗余数据集,可以提高量子模拟器的模型容量,因此,我们的方法可以避免其每次迭代基于推断有效温度的需求,从而加快了学习速度,减轻了参数控制噪声的影响,使其能够验证使用量子计算实现生成模型的可行性,并为这些量子技术在与机器学习相关的任务上进行基准测试提供了适当的框架。
Sep, 2016