自适应边界损失增强少样本学习
在 Few-shot learning 的背景下,该研究论文探索了如何使用大边距原则改进基于度量的 Few-shot learning 方法的泛化能力,通过在训练中将分类损失函数增加大边距距离损失函数,实现学习更有区分度的度量空间,实验证明这种方法可以有效提高现有模型的性能。
Jul, 2018
该论文提出了一种新颖的解决方案,可以在有限标注数据情况下,能够在训练和新任务中进行有效泛化,并利用未标注样本进行元任务实施未监督技术,实验结果表明该方法在新任务和训练任务中表现良好,并具有更快,更好的收敛性,较低的泛化和标准差误差,表明其在少样本学习中的潜在实际应用能力。该方法的实验结果超过了原型网络 3.9%。
Feb, 2024
本文在对 Few-Shot Learning 进行了深入的调研的基础上,选择使用三种视角:数据,模型,和算法来对 FSL 的方法进行分类,以提供未来研究的启示。
Apr, 2019
本文提出了一种新的任务:约束的少样本学习(CFSL),介绍了一种基于 Cat2Vec 的 CFSL 方法,该方法使用类别对比损失,并受到模糊痕迹理论和原型理论等认知理论的启发。
Aug, 2022
本文介绍一种负边距损失函数用于基于度量学习的 few-shot 学习方法,该方法显著优于常规 softmax 损失函数,并在三个标准 few-shot 分类基准上取得了最新的最高准确度。通过实现和理论分析,发现尽管负边距会降低训练班级的发散度,但它也可以避免将同一新班级的样本错误地映射到多个峰值或簇中,从而有助于新班级的区分。
Mar, 2020
本文提出了一种基于 facets 的自适应相似性度量方法,该方法可以被用于改进现有的基于度量的 few-shot learning 模型,并在 miniImageNet 和 CUB 数据集上实现了 state-of-the-art 的表现。
Feb, 2021
模型无关元学习(MAML)和其变体往往采用简单损失函数进行学习,为了更好地泛化,我们提出了一种新的元学习框架 MeTAL,其中损失函数适应于每个任务。
Oct, 2021
LSFSL improves the generalizability and robustness of few-shot learning models by incorporating relevant priors and addressing shortcut learning in deep neural networks.
Apr, 2023