带有随机注意力机制的神经过程:更多关注上下文数据集
本论文提出了一种名为 “潜在瓶颈注意力神经过程(LBANPs)” 的神经过程变种,旨在在保持高的预测性能的前提下实现计算效率,通过在少量的潜在向量上使用多个跨向量的注意力机制,将上下文数据集编码到潜在向量中,这些向量可以在处理目标数据点时进行高效查询形成预测结果。
Nov, 2022
本研究提供一个框架,允许神经过程(NPs)的潜变量被赋予由图形模型定义的丰富先验。将分布假设直接转化为上下文集合的适当聚合策略,并通过消息传递过程进行端到端优化。使用混合和学生 - t 假设证明了该框架的普适性,从而提高了函数建模和测试时的鲁棒性。
Jun, 2023
本文提出了一种将注意力神经过程(ANP)嵌入循环神经网络 (RNN) 的新模型 ——RANP,从而有效地捕获序列数据的时间顺序和重复结构,与 LSTMs 和 NPs 进行比较,该模型在一维回归玩具实例以及自主驾驶应用中表现出色。
Oct, 2019
本研究提出了一个新的神经过程模型 —— 常数内存注意力神经过程模型(CMANPs),它可以使用常数内存完成条件、查询和更新阶段,能够在低资源环境下高效地进行元回归和图像完成任务,与现有方法相比具有更好的内存效率和可扩展性。
May, 2023
引入 Message Passing Neural Processes (MPNPs),在模型中显式利用关系结构来弥补 NPs 在处理细胞自动机、标记任意数据等任务中无法利用关系信息所导致的性能限制。模型在现有基准测试和新提出的细胞自动机和 Cora-Branched 任务中表现良好,并在基于密度的 CA 规则集上实现了较强的泛化能力以及在 few-shot learning 设置中获得了显著的提升。
Sep, 2020
神经过程(NPs)是一类强大的元学习模型,旨在逼近元数据集中每个数据集从中抽样得到的地面真实随机过程的后验预测映射。我们在 NP 中增加了集成其他类似数据集的功能,描述了此范例作为上下文中的上下文学习。标准的 NP 架构(如卷积条件 NP(ConvCNP)或转换器神经过程(TNPs)系列)无法进行上下文中的上下文学习,因为它们只能在单个数据集上进行条件。我们通过开发上下文中的伪标记 TNP(ICICL-TNP)来解决这个问题。 ICICL-TNP 基于 PT-TNPs 系列,利用基于伪标记的转换器架构来规避常规转换器架构的二次计算复杂性。重要的是,ICICL-TNP 能够在数据点集和数据集集上进行条件修正,从而实现上下文中的上下文学习。我们在多个实验中证明了上下文中的上下文学习的重要性和 ICICL-TNP 的有效性。
Jun, 2024
提出了一种新的多模态神经过程模型,称为 Multimodal Neural Processes,该模型通过动态上下文存储、多模态贝叶斯聚合机制和新的注意力机制来进行多模态不确定性估计,实验结果表明其在多模态不确定性估计方面表现优异。
Apr, 2023
该论文介绍了一种基于条件神经过程和图像上下文的模型框架 —— 部分像素空间变分自动编码器(PPS-VAE)来解决视觉领域的图像修复问题,通过该方法不仅可以同时获取上下文和适配条件神经过程,而且其空间排布和值提供了有关图像内容的有力信号。
May, 2023
预测性过程监控 (PPM) 旨在利用历史过程执行数据预测正在进行的执行将如何持续到完成。本文介绍了一种基于符号化过程模型的背景知识的 Symbolic [Neuro] 系统,以解决训练数据下采样的问题,并使用关注机制的神经网络进行预测,该系统在多个实际日志上进行了测试,显示了预测任务性能的提升。
Dec, 2023