鲁棒的序列神经过程
本文提出一种使用时间卷积和软注意力的简单而通用的元学习器结构,命名为 SNAIL, 在广泛的元学习实验中实现了表现显著优于现有技术,并获得了当前最先进的性能。
Jul, 2017
本文提出了一种 Sequential Neural Processes (SNP) 的方法,它通过引入一个时间状态转移模型来扩展 Neural Processes (NP) 的建模能力,以处理动态随机过程。作者还使用 Temporal Generative Query Networks 将 SNP 应用于动态三维场景建模,实现了可以处理 3D 场景时间动态的 4D 模型,并在实验中验证了该方法在动态回归和 4D 场景推断与渲染中的性能。
Jun, 2019
通过提出一种新颖的顺序元迁移学习框架,将物理导向神经网络(PINN)分解 PDE 的时间域以创建适用于 PINN 训练的较小时间段的 “较简单” 问题,并通过元学习器在各个时间间隔上进行训练,以实现快速适应各种相关任务的最佳初始状态,并借助迁移学习方法进一步降低计算成本,从而明显提高了 PINN 的适应性并显著降低了计算成本,将计算成本降低了 100 倍。
Aug, 2023
本文提出了一种将注意力神经过程(ANP)嵌入循环神经网络 (RNN) 的新模型 ——RANP,从而有效地捕获序列数据的时间顺序和重复结构,与 LSTMs 和 NPs 进行比较,该模型在一维回归玩具实例以及自主驾驶应用中表现出色。
Oct, 2019
该研究提出了一种基于随机注意力机制的神经过程方法来捕捉适当的上下文信息,从信息论的角度证明了该方法鼓励上下文嵌入与目标数据集不同,可以实现上下文嵌入和目标数据集中的特征独立处理,在各种领域的实验中,该方法明显优于传统的神经过程方法。
Apr, 2022
本文提出了一种基于 Transformer 架构的新型神经过程模型(TNPs),用于解决元学习中的不确定性问题,具有先进的表现,适用于元回归、图像完成、上下文多臂赌博机和贝叶斯优化等各种基准问题。
Jul, 2022
本文介绍了 TrMRL,这是一种运用 Transformer 架构的基于元强化学习的代理(Meta-Reinforcement Learning Algorithm),它结合了最近的工作内存以递归方式构建情境记忆,并利用 self-attention 机制计算和提供有意义的特征以执行最佳任务。研究表明,在高维连续控制环境下,TrMRL 相对于基线模型表现出了相当或优异的收敛性能、采样效率和超出分布范围的概况。
Jun, 2022
提出了一个受海马体和前额叶皮质启发的生物学上可行的元学习模型,其使用尖峰神经网络和基于奖励的学习系统来实现在低数据条件下的快速学习并避免了灾难性遗忘,并且可以轻松地应用于脉冲神经形态学设备和在 few-shot 分类任务中展示了其与现有技术的竞争力。
Jun, 2023
本论文提出了一种名为 “潜在瓶颈注意力神经过程(LBANPs)” 的神经过程变种,旨在在保持高的预测性能的前提下实现计算效率,通过在少量的潜在向量上使用多个跨向量的注意力机制,将上下文数据集编码到潜在向量中,这些向量可以在处理目标数据点时进行高效查询形成预测结果。
Nov, 2022