Oct, 2023
张量网络的连续数据生成学习
Generative Learning of Continuous Data by Tensor Networks
TL;DR我们引入了一种能够学习含有连续随机变量的分布的新型张量网络生成模型,首先在矩阵乘积态的背景下推导出通用表达能力定理,证明了该模型家族能够以任意精度逼近任何充分平滑的概率密度函数;然后在几个合成和真实世界数据集上对该模型的性能进行基准测试,发现该模型在连续和离散变量的分布上学习和泛化良好;我们还开发了建模不同数据领域的方法,并引入了一个可训练的压缩层,发现在有限的内存或计算资源下,该层能够提高模型的性能。总体而言,我们的方法为量子启发式方法在生成学习这个快速发展领域的有效性提供了重要的理论和实证证据。