大边界少样本学习
本文针对小样本学习(few-shot learning)的泛化困难问题,提出了一种自适应_margin_方法,改善了基于度量的元学习方法的泛化能力,并通过实验验证了该方法的有效性。
May, 2020
本研究针对数据稀缺度的问题,提出了一种利用距离度量学习方法和基于图表征学习的分类模型的 few-shot 学习方法,同时在嵌入空间中实现了任务驱动嵌入,最后提出了一种基于 MixUp 的在线数据增强技术。
Jun, 2022
本文介绍一种负边距损失函数用于基于度量学习的 few-shot 学习方法,该方法显著优于常规 softmax 损失函数,并在三个标准 few-shot 分类基准上取得了最新的最高准确度。通过实现和理论分析,发现尽管负边距会降低训练班级的发散度,但它也可以避免将同一新班级的样本错误地映射到多个峰值或簇中,从而有助于新班级的区分。
Mar, 2020
本文介绍了使用外部知识来提升深度学习文本分类模型的 few-shot 学习能力,从而实现少量标注数据就能获得高性能的目的。作者在此基础上提出了一种新的参数生成网络,其能够利用外部知识生成关系网络参数,并将这些参数应用于多个任务中,以实现多个任务之间度量的转换。实验结果表明这种方法优于已有的 few-shot 文本分类模型。
Apr, 2020
提出了一种自适应度量学习方法,该方法能够从元训练任务中获得一组评估度量,并自动确定最佳加权组合,以捕捉自然语言领域中新的 few-shot 任务的复杂任务变化。在真实情感分析和对话意图分类数据集上进行了广泛的定量评估,结果表明所提出的方法在预测准确性方面表现优于现有的 few shot learning 算法。
May, 2018
本文提出一种少样本学习方法,即使用原型网络从小样本中抽象出原型,将其映射到一个度量空间中,比较测试样本和原型之间的距离来进行分类,同时还将其拓展到零样本学习,取得了最先进的结果。
Mar, 2017
本文提出了一种名为 Simple CNAPS 的新型神经网络架构,采用 Mahalanobis 距离作为距离衡量标准并学习适应性特征提取器,从而在标准 few-shot 图像分类基准数据集上实现了 6.1% 的性能提升。
Dec, 2019
通过引入对比损失和学习算法,本研究提升了少样本分类任务中的细分子类别鉴别能力,实现了在嵌入空间中的潜在细粒度结构学习,并通过在标准小样本学习基准测试中的广泛试验验证了该方法的优越性。
Jul, 2021
提出了一种新的神经网络结构,利用基于目标图像的条件来学习高质量的类别表示,采用动态学习方式进行类别之间的对比,对 Caltech-UCSD 鸟类细粒度分类任务取得了最先进的性能。
Feb, 2018