transformed gaussian processes (TGPs) are stochastic processes specified by transforming samples from the joint distribution from a prior process (typically a GP) using an invertible transformation; increasing the flexi
该研究提出了一种新的方法,称为Thin and Deep GP (TDGP),它通过定义原始输入数据的局部线性变换来保持潜在嵌入的概念,并保留核函数的长度尺度的解释性。与先前的方法不同,TDGP引入的流形可避免路径学习中的特殊病理问题,并且在学习低维表示方面表现出色。在理论和实验结果中证明了TDGP在发现输入数据的低维流形、增加层数时的良好性能以及在标准基准数据集上的表现。