本研究提出了一种基于分层原型模型和层次内存的神经记忆方法,该方法能够在领域转移的情况下,灵活地依赖不同语义层面的特征来适应新任务,而数据驱动的学习方法进一步可以使模型自适应地选择最具通用性的特征。该方法通过大量消融实验验证了性能的显著提升,尤其在跨领域和少样本分类方面表现出了显著优势。
Dec, 2021
本文提出一种基于层次变分推理的语义记忆元学习模型,通过超网络的自适应记忆更新规则,大幅提高了少样本情况下的监督词义消歧的性能。
Jun, 2021
本文提出了一种新的、严谨的贝叶斯元学习算法,用于学习少样本学习的模型参数先验的概率分布。该算法采用基于梯度的变分推断来推断模型参数的后验分布。我们展示了使用我们提出的元学习算法训练的模型具有良好的校准和准确性,在两个少样本分类基准测试(Omniglot 和 Mini-ImageNet)上取得了最新的校准和分类结果,并在多模式任务分布回归中获得了有竞争力的结果。
Jul, 2019
我们提出了一个多模态变分自编码器 (M-VAE),能够在学习图像特征和语义空间之间的共享潜在空间上,通过使用多模态损失来拟合多模态数据。该方法可用于预测新样本,且实验结果表明在广义零样本学习方面,我们提出的模型优于当前最先进的方法。
该研究文章提出了一个变分推断的自联想记忆模型,可以结合感知推断和存储检索,通过将先验概率密度定义为于已存储的表达式依存,吸引后续推断流程向先前存储的表达式。通过比较一些变分自编码器和预测编码的方法,作者结合这些方法提出了新的自联想存储模型,并在 CIFAR10 和 CLEVR 图像数据集上进行了评估。同时,作者也将这些自联想存储模型与 Hopfield Networks、End-to-End Memory Networks 和 Neural Turing Machines 等其他联想存储模型进行了比较。
Oct, 2022
通过为生成模型增加外部内存,我们将内存模块的输出解释为条件混合分布,在这种分布中读操作对应着从内存中采样并且取回对应的内容。这个视角允许我们使用变分推理在进行内存寻址,从而通过使用目标信息指导对内存查找的方法来有效训练我们的内存模块以增强生成模型。
Sep, 2017
该论文提出了一种概率元学习算法,能够从模型分布中采样模型,并且在模型适应新任务时注入噪声来减少任务模糊性,实验结果表明,该方法可以在模糊的少样本学习问题中采样出可信的分类器和回归器,并且阐述了如何利用对模糊性的推理来解决活跃学习问题。
Jun, 2018
本文针对少样本语义分割任务提出一种基于元类记忆的新方法(MM-Net),引入可共享的元类概念(例如某些中间级特征),以显式地学习少样本分割任务中的元类表示,对于 $k$-shot 场景,我们还提出了图像质量测量模块来选择支持图像,最后在 PASCAL-$5^i$ 和 COCO 数据集上验证实验表明我们的方法能够在 1-shot 和 5-shot 设置下均获得最新的最好成绩。特别地,我们的 MM-Net 在 1-shot 设置下在 COCO 数据集上获得 37.5%的 mIoU 分数,比之前的最新成果高出了 5.1%。
Aug, 2021
该论文提出了一种基于元学习框架的新型记忆引导域泛化方法,该方法抽象了语义类别的概念知识,并通过训练多次来学习如何记忆无域和不同的类别信息,并提供外部固定的记忆作为类别指导,以减少任意未见域的测试数据中表示不确定性。通过语义分割的广泛实验,证明了我们的方法在各种基准上具有卓越的泛化能力。
Apr, 2022
本文研究嵌入学习,将其扩展到时间、空间和符号的各种认知内存功能,并利用该数学模型推导出许多有关人类记忆的假设。
Nov, 2015