NPCL:针对不确定性感知的连续学习的神经过程
提出了一种新的多模态神经过程模型,称为 Multimodal Neural Processes,该模型通过动态上下文存储、多模态贝叶斯聚合机制和新的注意力机制来进行多模态不确定性估计,实验结果表明其在多模态不确定性估计方面表现优异。
Apr, 2023
本文提出了一种基于 Transformer 架构的新型神经过程模型(TNPs),用于解决元学习中的不确定性问题,具有先进的表现,适用于元回归、图像完成、上下文多臂赌博机和贝叶斯优化等各种基准问题。
Jul, 2022
本篇研究提出了一种名为 CLNP 的方法,通过神经模型稀疏化实现模型固定容量下的全生命周期学习,在这种方法中,使用经过稀疏化网络中的非活动神经元和滤波器来训练后续任务,并对以前任务的性能不会造成任何恶化,此外,CLNP 还提供了简单的学习诊断工具。实验证明,与当前基于权重弹性的方法相比,CLNP 能够显著提高结果。
Mar, 2019
研究了使用贝叶斯神经网络中的可学习不确定性来训练预测过程监控模型,以预测剩余时间和结果,并得出结论认为这种不确定性估计可以区分更精确和不太精确的预测,从而提高了用户对于这种预测系统的信心,在合作和以较小的数据集进行更早的实施方面具有潜在的可应用性。
Jun, 2022
本文通过探讨 NLP 中的各种任务,分析了现有神经网络模型中的 CL 问题,并对现有的 CL 评估方法和数据集进行了批判性评论,最后展望了未来的研究方向。
Dec, 2020
Evidential Conditional Neural Processes proposes a hierarchical Bayesian structure for the uncertainty decomposition in few-shot learning tasks to achieve robustness on noisy training tasks and extensive experiments demonstrate its effectiveness.
Nov, 2022
本文对条件神经过程模型中用于训练的最大似然目标进行了严格分析,并提出了神经过程家族的新成员高斯神经过程模型,该模型可以模拟预测相关性,具备平移等变性,提供了通用逼近保证,并显示出良好的性能。
Jan, 2021
本文介绍了一种新的基于神经网络的连续学习算法 UCL,该算法通过引入新的 Kullback-Leibler 散度项解决了正则化方法的两个主要问题,并在监督学习任务和强化学习任务中表现出超过最新技术的优异性能。
May, 2019
神经过程(NPs)是一类强大的元学习模型,旨在逼近元数据集中每个数据集从中抽样得到的地面真实随机过程的后验预测映射。我们在 NP 中增加了集成其他类似数据集的功能,描述了此范例作为上下文中的上下文学习。标准的 NP 架构(如卷积条件 NP(ConvCNP)或转换器神经过程(TNPs)系列)无法进行上下文中的上下文学习,因为它们只能在单个数据集上进行条件。我们通过开发上下文中的伪标记 TNP(ICICL-TNP)来解决这个问题。 ICICL-TNP 基于 PT-TNPs 系列,利用基于伪标记的转换器架构来规避常规转换器架构的二次计算复杂性。重要的是,ICICL-TNP 能够在数据点集和数据集集上进行条件修正,从而实现上下文中的上下文学习。我们在多个实验中证明了上下文中的上下文学习的重要性和 ICICL-TNP 的有效性。
Jun, 2024