提出了一种自适应度量学习方法,该方法能够从元训练任务中获得一组评估度量,并自动确定最佳加权组合,以捕捉自然语言领域中新的 few-shot 任务的复杂任务变化。在真实情感分析和对话意图分类数据集上进行了广泛的定量评估,结果表明所提出的方法在预测准确性方面表现优于现有的 few shot learning 算法。
May, 2018
提出了一种新的神经网络结构,利用基于目标图像的条件来学习高质量的类别表示,采用动态学习方式进行类别之间的对比,对 Caltech-UCSD 鸟类细粒度分类任务取得了最先进的性能。
Feb, 2018
本文提出了一种 Transductive Episodic-wise Adaptive Metric (TEAM) 框架来解决 few-shot 学习中,如何通过集成元学习范式以及深度指标学习和传导推理来学习具有自适应度量能力的分类器。通过在每个任务内部探索配对约束和正则化先验,我们将适应过程显式地形式化为标准的半正定规划问题,并使用转导设置中的闭式解来解决该问题,并通过将注意力机制应用于双向相似性策略,提取查询和原型之间更可靠的关系,实验表明我们提出的方法在三个基准数据集上表现优于其他现有方法,并在少样本学习文献中实现了最先进的性能。
Oct, 2019
本文从贝叶斯视角重新构建度量学习,在提出随机变分方法学习单个全局缩放参数的基础上,进一步生成任务依赖的尺度向量,实现纬度缩放以更好地适应给定的数据分布,为已有的度量学习算法提供可插拔的端到端方式并对 mini-ImageNet 数据集的表现进行实验。
Dec, 2019
本文提出一种基于元度量学习的学习方法,在 $k$-shot $N$-way 和多样化领域任务及灵活标签数量等新设置中均具有优异性能。
Jan, 2019
通过引入基于属性的任务属性距离(TAD)度量来量化任务相关性,本文探讨了少样本学习(FSL)中任务之间的关系对模型在新任务上适应困难程度的影响,并使用实验证实了 TAD 度量能够有效量化任务相关性并反映不同 FSL 方法在新任务上的适应困难程度。
Mar, 2024
本文介绍了使用外部知识来提升深度学习文本分类模型的 few-shot 学习能力,从而实现少量标注数据就能获得高性能的目的。作者在此基础上提出了一种新的参数生成网络,其能够利用外部知识生成关系网络参数,并将这些参数应用于多个任务中,以实现多个任务之间度量的转换。实验结果表明这种方法优于已有的 few-shot 文本分类模型。
Apr, 2020
提出了两种不同的损失函数 ——Proto-Triplet Loss 和 ICNN loss,其中考虑了嵌入向量的重要性,并评估了训练后网络获得的嵌入的质量。在实验中,相比其他度量法,这些损失函数在 miniImagenNet 基准测试中将准确率显著提高了 2%,表明这些损失函数有能力使网络更好地推广到以前未见过的类别。
May, 2023
通过在预测空间中学习度量,在不改变最优预测模型本身的情况下,改变模型的学习方式以强调对下游任务重要的信息,从而实现针对预测任务和下游任务的最佳结果。
Dec, 2023
在 Few-shot learning 的背景下,该研究论文探索了如何使用大边距原则改进基于度量的 Few-shot learning 方法的泛化能力,通过在训练中将分类损失函数增加大边距距离损失函数,实现学习更有区分度的度量空间,实验证明这种方法可以有效提高现有模型的性能。
Jul, 2018