MGIMN: 面向少样本文本分类的多粒度交互匹配网络
提出了一种基于自适应元学习和梯度相似性的方法 AMGS,通过获得样本的潜在语义表示和构建自监督辅助任务以及利用自适应元学习者对基学习者在外循环中获得梯度的约束,以解决少样本学习场景下优化方法的过拟合问题。实验结果表明,与基于优化方法的元学习方法相比,该方法能够提高 few-shot 文本分类的性能。
Sep, 2022
本研究提出了一种新颖的混合 GNN(HGNN)模型,该模型由实例 GNN 和原型 GNN 组成,用于快速适应元学习特征嵌入到新任务中,在三个 FSL 基准测试中获得了新的最新成果。
Dec, 2021
提出了一种多信息集成网络(MIANet),它有效地利用了一般知识和实例信息进行准确的分段,通过多种信息聚合,MIANet 高效地利用了语义词嵌入和实例信息,最终提高了 PASCAL-5i 和 COCO-20i 数据集的性能并取得了新的最佳效果。
May, 2023
本文提出了一种基于归纳网络的元学习算法来实现少样本文本分类任务中的类别泛化,通过将动态路由算法与元学习相结合,学习出每个类别的泛化表示,并将其与新的查询样本进行比较,在英文情感分类和中文对话意图分类任务中验部,所获得的实验结果显示,该模型在泛化类别的表现上显著优于现有的最先进的方法。
Feb, 2019
本文针对小样本学习(few-shot learning)的泛化困难问题,提出了一种自适应_margin_方法,改善了基于度量的元学习方法的泛化能力,并通过实验验证了该方法的有效性。
May, 2020
本文提出了一种名为 COSMIC 的图形式的新颖对比元学习框架,并通过丰富内部类可泛化性和生成硬节点类来增强跨类可泛化性,从而使少数样本节点分类的性能得到提升。
Jun, 2023
提出了一种自适应度量学习方法,该方法能够从元训练任务中获得一组评估度量,并自动确定最佳加权组合,以捕捉自然语言领域中新的 few-shot 任务的复杂任务变化。在真实情感分析和对话意图分类数据集上进行了广泛的定量评估,结果表明所提出的方法在预测准确性方面表现优于现有的 few shot learning 算法。
May, 2018
提出了一种新的基于元学习的图分类模型 Meta-GNN,能够在非欧几里得领域解决节点分类问题,并在多个基准数据集上实现了较大幅度的性能改进和任务适应能力的提高。
May, 2019
本文提出了一种新的元学习方法:LGM-Net,通过学习跨任务的可转移先验知识并直接产生相似未见过任务的网络参数来进行少样本分类,其中包含 TargetNet 模块和 MetaNet 模块,且介绍了一种跨任务整合策略以利用不同任务之间的公共信息,实验结果表明,LGM-Net 可以有效地适应相似未见的任务,具有比其他元学习方法更快的学习和适应速度。
May, 2019
本文提出一种基于图卷积的全局原型网络(GcGPN)的图形框架,该框架显式地模拟了联合标签空间中所有已看到和新类别之间的关系,以在全局一致的方式下将新类别嵌入到以前看到的所有类别的现有空间中,为广义小样本学习(GFSL)中的快速适应和全局区分提供了解决方案。
Jul, 2019