潜在瓶颈关注神经过程
该研究提出了一种基于随机注意力机制的神经过程方法来捕捉适当的上下文信息,从信息论的角度证明了该方法鼓励上下文嵌入与目标数据集不同,可以实现上下文嵌入和目标数据集中的特征独立处理,在各种领域的实验中,该方法明显优于传统的神经过程方法。
Apr, 2022
本研究提出了一个新的神经过程模型 —— 常数内存注意力神经过程模型(CMANPs),它可以使用常数内存完成条件、查询和更新阶段,能够在低资源环境下高效地进行元回归和图像完成任务,与现有方法相比具有更好的内存效率和可扩展性。
May, 2023
本文提出了一种将注意力神经过程(ANP)嵌入循环神经网络 (RNN) 的新模型 ——RANP,从而有效地捕获序列数据的时间顺序和重复结构,与 LSTMs 和 NPs 进行比较,该模型在一维回归玩具实例以及自主驾驶应用中表现出色。
Oct, 2019
本文提出了一种基于 Transformer 架构的新型神经过程模型(TNPs),用于解决元学习中的不确定性问题,具有先进的表现,适用于元回归、图像完成、上下文多臂赌博机和贝叶斯优化等各种基准问题。
Jul, 2022
本研究提供一个框架,允许神经过程(NPs)的潜变量被赋予由图形模型定义的丰富先验。将分布假设直接转化为上下文集合的适当聚合策略,并通过消息传递过程进行端到端优化。使用混合和学生 - t 假设证明了该框架的普适性,从而提高了函数建模和测试时的鲁棒性。
Jun, 2023
提出一种基于引导法的神经过程扩展方法 Boostrapping Neural Process(BNP),可以在不假设特定形式情况下,学习 NPs 中的随机性,且在各类型数据中表现出良好的鲁棒性和稳健性
Aug, 2020
神经过程(NPs)是一类强大的元学习模型,旨在逼近元数据集中每个数据集从中抽样得到的地面真实随机过程的后验预测映射。我们在 NP 中增加了集成其他类似数据集的功能,描述了此范例作为上下文中的上下文学习。标准的 NP 架构(如卷积条件 NP(ConvCNP)或转换器神经过程(TNPs)系列)无法进行上下文中的上下文学习,因为它们只能在单个数据集上进行条件。我们通过开发上下文中的伪标记 TNP(ICICL-TNP)来解决这个问题。 ICICL-TNP 基于 PT-TNPs 系列,利用基于伪标记的转换器架构来规避常规转换器架构的二次计算复杂性。重要的是,ICICL-TNP 能够在数据点集和数据集集上进行条件修正,从而实现上下文中的上下文学习。我们在多个实验中证明了上下文中的上下文学习的重要性和 ICICL-TNP 的有效性。
Jun, 2024
本文对条件神经过程模型中用于训练的最大似然目标进行了严格分析,并提出了神经过程家族的新成员高斯神经过程模型,该模型可以模拟预测相关性,具备平移等变性,提供了通用逼近保证,并显示出良好的性能。
Jan, 2021
引入 Message Passing Neural Processes (MPNPs),在模型中显式利用关系结构来弥补 NPs 在处理细胞自动机、标记任意数据等任务中无法利用关系信息所导致的性能限制。模型在现有基准测试和新提出的细胞自动机和 Cora-Branched 任务中表现良好,并在基于密度的 CA 规则集上实现了较强的泛化能力以及在 few-shot learning 设置中获得了显著的提升。
Sep, 2020