双目互相学习以提高少样本分类
本文提出了一种机制,可以根据待学习的新图像类别自适应地从视觉和语义两方面结合信息,通过一系列实验表明,这种自适应组合可以在所有基准和 few-shot 情景上大幅优于当前单模态学习方法和模态对齐方法,特别是在少样本的情况下。
Feb, 2019
本文提出了一种对 few-shot 分类问题的基础分类方法,和一种在此基础上的协作双路径度量分类方法,将模型在基础分类上的训练结果迁移到新分类中。经过两个基准测试集的验证表明,该方法是一个简单而有效的框架,而且是该领域的新的最先进技术。
Aug, 2020
本文提出了一种新的对比学习框架,将其无缝地整合到预训练阶段和元训练阶段,以提高少样本分类的性能,并使用交叉视图的情节训练机制进行最近的质心分类,并采用基于距离缩放的对比损失。
Sep, 2022
提出了一种名为 BiKop 的一致的双向知识渗透策略,该策略通过建立层次化的联合常规 - 特定表示,并在训练过程中分离基础类相关语义,以减轻对潜在新颖类相关信息的抑制,从而在四个具有挑战性的基准测试中展示了 BiKop 的显着优越性。
May, 2024
基于少量训练资源,Meta Co-Training 在 ImageNet-10% 上取得了新的最先进性能,并在其他细粒度图像分类数据集上胜过先前的半监督方法。
Nov, 2023
本论文研究了多任务学习(MTL)与基于梯度的元学习(GBML)之间的关系,通过理论和实证研究证明了它们在优化公式和学习到的预测函数上的相似性,并通过样例展示了 MTL 作为一阶方法可以代替计算代价高的二阶方法 ——GBML,在大规模数据集上训练时更加有效。
Jun, 2021
本文提出了跨域 few-shot 学习的 Broader Study of Cross-Domain Few-Shot Learning (BSCD-FSL)基准,并对该基准的广泛实验表明了目前最先进的元学习方法被早期的元学习方法意外地超越,同时发现所有方法的准确性倾向于与数据集的相似性相关,这验证了该基准的价值,可指导未来的研究方向。
Dec, 2019
通过并行上下文学习策略,我们提出了 Bilateral Consensus Learning Network (BCLNet) 来有效估计相机姿态并识别内点(真实对应关系),实验证明我们的网络在基准数据集上不仅超过了最先进的方法,而且展示了对各种特征提取技术的稳健泛化能力。
Jan, 2024
在多标签场景中,本研究提出了一种新颖有效的组群双增强框架(GBE-MLZSL),以充分利用局部和全局特征,实现更准确和稳健的视觉语义投影,实验结果表明,GBE-MLZSL 可大幅胜过其他最先进的方法。
Sep, 2023