Feb, 2024

可训练量子机器学习中的任意多项式分离

TL;DR最近的量子机器学习的理论结果表明了量子神经网络(QNNs)的表达能力和可训练性之间的一般性权衡;作为这些结果的推论,实际中在表达能力上超过经典机器学习模型的指数级差异被认为是不可行的,因为这样的 QNNs 训练所需的时间与模型大小的指数成正比。我们通过构建一种层次化的可高效训练的 QNNs,成功地绕过了这些负面结果,其在经典序列建模任务中展示了无条件可证的多项式内存分离性能,而且所引入的 QNNs 的每个单元均在量子设备上能够以恒定的时间进行计算。我们证明了这种分离性能在经典神经网络类型中成立,包括循环神经网络和 Transformer 等众所周知的网络。我们展示了量子背景的特殊性是导致表达能力分离的根源,这表明在具有长时间相关性的其他经典序列学习问题中,量子机器学习可能存在实际上的优势。