扩散增强神经过程
本文提出了一种新的神经过程成员 Conditional Quantile Neural Processes(CQNPs),采用量化回归来对复杂的分布进行建模,通过学习估计有信息量的分位数来增强抽样效率和预测准确性,并在实验数据集上与基线算法进行比较,展示了预测性能的显着提高。
May, 2023
本文介绍了一种基于条件神经过程的预测方式,在测试阶段以链式规则定义联合预测分布,从而克服条件神经过程只能独立预测的缺点,实现高度相关、非高斯的预测,且性能显著优于非自回归条件神经过程,在不需要额外的近似推断或昂贵的训练策略的情况下,达到了与更复杂的预测模型竞争的水平。
Mar, 2023
本文对条件神经过程模型中用于训练的最大似然目标进行了严格分析,并提出了神经过程家族的新成员高斯神经过程模型,该模型可以模拟预测相关性,具备平移等变性,提供了通用逼近保证,并显示出良好的性能。
Jan, 2021
Evidential Conditional Neural Processes proposes a hierarchical Bayesian structure for the uncertainty decomposition in few-shot learning tasks to achieve robustness on noisy training tasks and extensive experiments demonstrate its effectiveness.
Nov, 2022
基于神经网络将概率模型参数化的条件神经过程(CNP)能够提供良好校准的预测,特别适用于元学习问题。SConvCNPs 是 NPs 家族的新成员,通过在频域更有效地表示函数,克服了 ConvCNP 在处理有限和不规则采样的数据时捕捉长程依赖和复杂模式的挑战。
Apr, 2024
提出了一种新的多模态神经过程模型,称为 Multimodal Neural Processes,该模型通过动态上下文存储、多模态贝叶斯聚合机制和新的注意力机制来进行多模态不确定性估计,实验结果表明其在多模态不确定性估计方面表现优异。
Apr, 2023
引入 Message Passing Neural Processes (MPNPs),在模型中显式利用关系结构来弥补 NPs 在处理细胞自动机、标记任意数据等任务中无法利用关系信息所导致的性能限制。模型在现有基准测试和新提出的细胞自动机和 Cora-Branched 任务中表现良好,并在基于密度的 CA 规则集上实现了较强的泛化能力以及在 few-shot learning 设置中获得了显著的提升。
Sep, 2020
本文提出了一种 Sequential Neural Processes (SNP) 的方法,它通过引入一个时间状态转移模型来扩展 Neural Processes (NP) 的建模能力,以处理动态随机过程。作者还使用 Temporal Generative Query Networks 将 SNP 应用于动态三维场景建模,实现了可以处理 3D 场景时间动态的 4D 模型,并在实验中验证了该方法在动态回归和 4D 场景推断与渲染中的性能。
Jun, 2019
提出一种基于引导法的神经过程扩展方法 Boostrapping Neural Process(BNP),可以在不假设特定形式情况下,学习 NPs 中的随机性,且在各类型数据中表现出良好的鲁棒性和稳健性
Aug, 2020