增强式关注机制用于小样本学习及其扩展
本文提出一种新的 few-shot 学习方法,通过优化和快速适应查询样本的表示来改进 few-shot 分类,所提出的自适应注意力模型还能够解释分类模型所寻找的证据。在各种基准 few-shot 分类和精细识别数据集上,实验证明了所提出模型的分类结果达到了最先进水平。
Aug, 2020
本文提出了一种基于元学习的注意力吸引网络模型,用于在已有基础类别数据的情况下,通过少量有标注的样本学习新的类别,从而提高模型对于新类别和旧类别的分类性能,超越其他相关算法。
Oct, 2018
提出了一种基于强化学习和元学习的框架来解决 few-shot learning 问题,通过稳定的损失函数来学习最佳的优化算法,从而实现了对参数的更新。实验结果表明该方法在准确率和 NDCG 指标上均超过了现有的替代方法,并且可扩展到网络结构搜索。
May, 2020
通过在任何卷积神经网络的弱监督生成中间注意力图的机制上进行改进,揭示了注意力模块的有效性,提出了一种元质疑网络,并结合强化学习的方法进行优化,从而提高了注意力模块的表达能力,并在分类和实例识别基准测试上进行了广泛的实验验证。
Jul, 2020
本文提出了一种结合软性、自上而下的注意机制的强化学习模型,使用信息瓶颈迫使智能体只关注任务相关信息,从而生成容易解释的模型。在 ATARI 游戏上实现了与最先进模型竞争力相当的性能。
Jun, 2019
本文提出了一种原型中心的注意力学习模型(PAL),通过引入原型中心对比学习损失和混合的注意力学习机制,PAL 模型能够有效地提高在少样本情况下的行为识别准确度,具有优异的性能表现。
Jan, 2021
本研究提出一种基于抽象记忆的架构,利用机器标注数据,通过查询外部记忆库中与查询问题视觉相似的数据,并将有用的信息写入到抽象记忆中,最终实现了对新领域物体的准确识别。
Dec, 2016