Propagating input uncertainty through non-linear Gaussian process (GP)
mappings is intractable. This hinders the task of training GPs using uncertain
and partially observed inputs. In this paper we refer to this task as
"semi-described learning". We then introduce a GP framework that s
本篇论文研究了在多任务高斯过程模型中如何持续不断地学习处理顺序输入输出观测值的问题,提出了基于在线贝叶斯推断先验 —— 后验递归的方法,并结合诱导输入的稀疏近似引入了变分推断。通过该方法得到了可行的无限条件下界,并在自然情况下引入两个新的 KL 散度。本研究方法的关键技术是基于条件 GP 先验的递归重构,实现了对迄今为止学习到的变分参数的条件 GP 先验的递归重构。同时,该方法适用于许多类型的连续或离散的顺序观测,并且适用于可能出现潜在的多通道或异构观测值的场景。广泛的实验证明该方法具有可扩展性,表现可靠,并且对合成和真实世界的大量数据集的误差传播具有鲁棒性。