Daniel Augusto de Souza, Alexander Nikitin, ST John, Magnus Ross, Mauricio A. Álvarez...
TL;DR该研究提出了一种新的方法,称为Thin and Deep GP (TDGP),它通过定义原始输入数据的局部线性变换来保持潜在嵌入的概念,并保留核函数的长度尺度的解释性。与先前的方法不同,TDGP引入的流形可避免路径学习中的特殊病理问题,并且在学习低维表示方面表现出色。在理论和实验结果中证明了TDGP在发现输入数据的低维流形、增加层数时的良好性能以及在标准基准数据集上的表现。
Abstract
gaussian processes (GPs) can provide a principled approach to uncertainty quantification with easy-to-interpret kernel hyperparameters, such as the lengthscale, which controls the correlation distance of function