论少样本分类中诱导误导因素的重要性
该研究提出了一种新的适用于 few-shot classification 的方法,使用伪标签技术结合蒸馏损失和标准交叉熵损失来解决小数据集的问题,并取得了比现有的算法更好的效果。
Dec, 2021
通过实验,本研究发现自监督学习在小类别图像识别中的迁移性、鲁棒性、效率及可补充性都超过了传统的少样本学习方法,并以 3.9% 的准确度优势取得了成功,因此需要更深入地研究自监督学习在少样本学习中的作用。
Oct, 2020
通过引入对比损失和学习算法,本研究提升了少样本分类任务中的细分子类别鉴别能力,实现了在嵌入空间中的潜在细粒度结构学习,并通过在标准小样本学习基准测试中的广泛试验验证了该方法的优越性。
Jul, 2021
本文探讨使用反差学习作为辅助训练目标来促进更通用和可转移的特征,在此基础上提出了一种基于注意力的空间反差目标来学习本地区分和类别不可知特征。通过大量实验证明了该方法优于最先进的方法,证实了学习良好、可转移的嵌入在 few-shot 学习中的重要性。
Dec, 2020
该研究证明,在 mini-ImageNet 数据集中,fine-tuning 方法在 1-shot 任务中比常见的 few-shot learning 算法具有更高的准确性,在 5-shot 任务中准确率几乎与最先进的算法相同,同时展示了在高分辨率单领域和跨领域任务中,该方法比常见 few-shot learning 算法具有更高的准确性。
Oct, 2019
提出了一个名为 ContrastNet 的对比学习框架,来解决少样本文本分类问题中类间相似性引起的混淆和过拟合的问题。经实验证明该方法在 8 个少样本文本分类数据集上优于当前技术水平。
May, 2023
本文研究了在训练数据稀缺的情况下,通过在较少的基础类别上进行微调,以改善少样本学习,探索了提取目标数据集更好特征的可能性,并提供了可在任何少样本解决方案中实施的简单且直观的方法。
Jan, 2024
本研究综述了少样本物体检测的现有成果及未来展望,提出了基于数据的训练分类法和相应监督的形式,并对其定义、主要挑战、基准数据集、评估指标和学习策略进行了详细调查,最后总结了少样本目标检测的现状以及未来的研究方向。
Oct, 2021
这篇论文介绍了几种代表性的 few-shot 分类算法的一致性比较分析,包括修改的基准线方法,新的评估设置等,并揭示了在 backbones 网络较深时,减少类内变异是一个重要的因素,但与使用较浅的 backbones 网络时不太重要的结论。在现实的跨域评估设置中,我们展示了一种标准的微调实践的基准方法与其他最先进的 few-shot 学习算法相比的优越性。
Apr, 2019
本文研究了如何通过增大少样本学习中的类内方差,以提高图像的分类效果,通过变分推断的方式将类内方差分布从基本集合转移到新集合中。实验结果表明,在具有挑战性的细粒度少样本图像分类基准上,该方法在状态 - of-the-art 的方法上有明显提升。
Oct, 2020