Oct, 2024
通过张量网络研究量子概率机器学习中的普适缩放规律以解读表示与泛化能力
Universal scaling laws in quantum-probabilistic machine learning by
tensor network towards interpreting representation and generalization powers
TL;DR该研究解决了机器学习领域中长期存在的表示与泛化能力解读难题。通过分析生成性张量网络(GTN)的负对数似然(NLL)线性增长规律,揭示了训练过程中的信息积累和缩放系数与训练样本及量子通道数量之间的关系。这些发现表明量子概率机器学习中的普适缩放规律为建立可解释的机器学习方案提供了重要一步。