Jun, 2022

机器学习中的懒惰性、平台性和噪音

TL;DR通过对神经网络中变分参数的大量抑制来定义惰性,其中量子情况下的抑制对于随机化变分量子电路的量子比特数量呈指数衰减。我们讨论了惰性与由量子物理学家在文献中创建的量子机器学习中的荒漠高原的差异,对梯度下降期间损失函数的平坦情况进行了讨论。同时,我们揭示了在一定的噪声模型下,量子变分算法对于过度参数化的噪声具有弹性。