理解量子机器学习需重新思考常规泛化
提出了一系列以数据为中心的启发式方法来改善机器学习系统在量子信息科学问题上的表现。具体而言,我们考虑如何通过系统地构建训练集来显著提高用于量子状态重构的预训练神经网络的准确性,而不改变底层架构。
Jan, 2022
该研究通过系统实验和理论构建发现,传统方法很难解释为什么大型神经网络的泛化性能良好,即使加入正则化仍然不会改变随机标记训练数据的状态,因为只要参数数量超过数据点数量,简单的两层神经网络就能实现完美的有限样本表达能力。
Nov, 2016
量子机器学习需要强大、灵活和高效可训练的模型来成功解决具有挑战性的问题。本文介绍了密度量子神经网络,一种融合了一组可训练酉矩阵的随机化学习模型。这些模型使用参数化量子电路广义化了量子神经网络,并允许在表达能力和高效可训练性之间进行折中,特别适用于量子硬件。我们通过将其应用于两个最近提出的模型族来展示该形式化方法的灵活性。第一个是具有有效可训练性但表达能力可能受限的交换块量子神经网络 (QNNs)。第二个是正交 (保持汉明权重) 量子神经网络,它在数据上提供了定义明确且可解释的转换,但在量子设备上进行大规模训练具有挑战性。密度交换块 QNNs 增加了容量,几乎没有梯度复杂度增加,而密度正交神经网络减少了梯度查询的复杂度,几乎没有性能损失。我们通过对具有超参数优化的合成平移不变数据和 MNIST 图像数据进行数值实验来支持我们的发现。最后,我们讨论了与后变分量量子神经网络、基于测量的量子机器学习和辍学机制之间的联系。
May, 2024
本研究提出了一种自我学习的方法,使用无人干预的生成式模型来描述量子状态,通过研究该模型学习到的内在表示方式及其对量子态的理解,我们证明该方法具有实现可解释机器学习量子态的潜力,且能够进行自主学习,并为机器学习如何自我学习小规模量子系统提供了见解。
Jun, 2023
本研究通过机器学习方法,实验性地构造了一个量子态分类器,能够识别量子态可分离性,此方法能有效地学习和分类量子态,并不需要获取完整的量子态信息。同时本研究表明,通过添加神经网络的隐藏层,可以显著提高状态分类器的性能。这些成果为解决如何在有限的资源下实现量子态分类提供了新的思路,并代表了机器学习在量子信息处理领域的应用进展。
Dec, 2017
本文使用信息几何工具,定义了量子和经典神经网络的表达能力,将有效维度作为证明表达能力的新广义边界,并建立了一个强大的表达能力度量。我们展示了量子神经网络能够比相似的经典神经网络实现更好的有效维度,并因其更均匀分布的 Fisher 信息谱而显示了对枯燥的高原问题具有适应性并具有快速的训练能力。我们的工作是第一个通过更高的有效维度和更快的训练能力证明精心设计的量子神经网络优于经典神经网络的,并在实际量子硬件上进行了验证。
Oct, 2020
本文开发了一个不可能定理,证明了使用量子神经网络(QNNs)从高保真度的初始状态开始,学习未知量子态的概率随比特数指数级下降,而与电路深度多项式增长,从而对改善 QNNs 的可学习性和可扩展性的好的初始猜测和自适应方法提出了普遍限制,并深化了先验信息在 QNNs 中的作用的理解。
Sep, 2023
论文综述了机器学习中生成建模技术在恢复实际、嘈杂和多量子比特量子态方面的发展,尤其是限制玻尔兹曼机器的理论,并演示了它在状态重建中的实际应用,从经典热力学分布的伊辛自旋开始,逐步移动到越来越复杂的纯态和混合量子态,通过对实验噪音中间规模量子设备的冷原子波函数重建的最近工作进行总结,最后讨论了未来在 NISQ 时代和以后使用机器学习进行状态重建的展望。
May, 2019
本研究探讨了如何通过量子神经网络来实现以图形结构的量子数据的量子机器学习,并证明了利用图的结构可以提高学习算法,我们进行了数值模拟并展示了出色的学习表现,推测在下一代量子计算设备上可实现可扩展的量子学习程序。
Mar, 2021