FSL 模型得分更高
本文提出了一种基于 facets 的自适应相似性度量方法,该方法可以被用于改进现有的基于度量的 few-shot learning 模型,并在 miniImageNet 和 CUB 数据集上实现了 state-of-the-art 的表现。
Feb, 2021
本文研究了 Few-Shot Learning 中当 support 和 query 样本来自于不同分布时的问题,提出了一种结合 Optimal Transport 和 Prototypical Networks 的新方法,有效缓解了 Distribution Shift 的影响,提高了模型的表现。
May, 2021
介绍了在 few-shot learning(小样本学习)中应对 Label 干扰的技术方法,提出了一种基于 Transformer 的模型(TraNFS)和特征聚合方法,通过在嘈杂的数据集上的测试,验证了这些方法的有效性。
Apr, 2022
该研究对最近在机器学习领域受到欢迎的少样本学习在三维感知上的应用进行了深入系统研究,提出了一种新的组件 Cross-Instance Adaptation(CIA) module,将其插入到当前基线模型中可显著提高表现,并在两个新的基准数据集上证明了该模型的优越性。
Mar, 2023
LSFSL improves the generalizability and robustness of few-shot learning models by incorporating relevant priors and addressing shortcut learning in deep neural networks.
Apr, 2023
利用少量的『类别级别』的语言描述,结合视觉特征分形成一个瓶颈视觉特征 (混合原型) 并建立一种 Transformer 机制,以编码这两种形式的丰富语义,并且经过多个数据集的实验证明,该算法能有效提升 few-shot learning 的性能。
Apr, 2021
本文探究用渠道方案特征转换可以提高 Few-Shot Learning 中图像分类的普适性,同时揭示了当前视觉系统的核心问题,即渠道偏见问题。
Jun, 2022
该研究发现将预训练语言模型 (LMs) 应用于许多具有多样性任务的训练可提高少量任务学习(FSL)模型的性能。作者从互联网表格中提取了 413,299 个任务并证明其中的一些数据集能更好地用于 NLP 任务的 FSL 模型中。
Aug, 2022
本篇论文提出一种使用基类和新类训练样本学习全局类别表示来解决少样本学习问题的方法,该方法在训练过程中涉及到新类训练样本,并且采用了有效的样本综合策略避免过拟合,同时能够轻松扩展到更具挑战性的 FSL 场景。
Aug, 2019