自适应参数原型学习用于跨领域少样本分类
本文提出了一种基于元学习的双自适应表示对齐方法,针对跨域小样本学习问题,在极少量样本的情况下,通过特征和分布的对齐,实现了更好的泛化能力及更高的成果。
Jun, 2023
本文研究跨领域少样本分类,通过引入轻量级参数适配策略和方差感知损失函数来提高模型性能,在 Meta-Dataset 基准测试中,相较于现有方法,准确率分别提高了 7.7% 和 5.3%,且参数效率至少提高 3 倍,达到了新的国际水平。
Mar, 2024
本文提出了一种自监督的原型传递学习方法 ProtoTransfer,旨在通过构建一个可以将未标记的样本和它们的增强聚类在一起的度量嵌入来预测少量标记数据的正确类别。我们在 mini-ImageNet 数据集上的少量样本分类任务中通过 ProtoTransfer 方法超越了最先进的无监督元学习方法。在存在领域偏移的少样本实验中,我们的方法甚至具有可比拟于监督方法的性能,但需要 orders of magnitude 较少的标签。
Jun, 2020
该论文提出了一种直接在少量支持集上学习任务特定权重的方法,通过使用残差连接和矩阵形式的参数适配器,能够显著提高最先进的 Meta-Dataset 基准模型的性能。
Jul, 2021
通过引入迁移学习和元学习以及改进的训练过程包括一阶 MAML 算法和图神经网络模型,本文提出的方法在加上数据增强后,在新的跨领域少样本学习基准上实现了 73.78% 的平均准确度,比既有基准提高了 6.51%。
May, 2020
针对 few-shot 分类在训练和测试分布之间的域变化导致在测试上性能下降的问题,提出了通过任务增强来改善归纳偏置的鲁棒性,具体来说,采用对抗任务增强方法来生成具有挑战性的任务,可以提供简单的即插即用模块来提高元学习模型在跨域通用性中的性能。
Apr, 2021
本文介绍了通过适配器和居中核对齐等方法,利用多个分别训练的网络的知识来同时学习多个领域上通用的深度表示,通过距离学习方法来有效适应之前未见过的领域,并在 Meta-Dataset 基准测试中取得显著的性能提升。
Mar, 2021
本文提出了一种新的元学习框架,集成对抗域适应网络,旨在提高模型的适应能力并为新类别生成高质量的文本嵌入。在四个基准数据集上进行了大量实验,结果表明我们的方法在所有数据集上都明显优于现有技术,特别是在 20 个新闻组数据集上,1-shot 和 5-shot 分类的准确性从 52.1%提高到 59.6%和从 68.3%提高到 77.8%。
Jul, 2021
本文提出了一种基于多级原型学习的半监督域自适应框架,采用伪标签聚合和交叉域对齐损失方法,以及通过原型相似度和线性分类器提升目标特征表示的判别性学习,实现了在三个数据集上卓越的 SSDA 性能。
May, 2023
通过自适应加权联合学习的方法,将两个独立训练的源典型分类模型适应目标任务,以解决交域少样本学习的挑战,该方法采用加权移动平均预测策略生成概率性预测,并基于从预测中产生的伪标签和实例权重交替地联合微调两个模型。此外,还通过惩罚错误预测部署了负伪标签正则化器来改进微调过程,综合实验结果在多个基准数据集上进行了验证,证明了该方法在交域少样本学习性能方面达到了最先进水平。
Dec, 2023