通过跨模态训练,结合视觉和语言信息,利用少量的训练样本和类名,建立了一个更好的狗狗分类器,并构建了第一个音视频少样本学习基准。
Jan, 2023
该论文提出了一种跨模态特征生成框架,利用文本数据来弥补计算机视觉任务中数据稀缺的不足,进而提高分类结果,并在实验中证明该方法的有效性。
Nov, 2020
提出了一种自适应度量学习方法,该方法能够从元训练任务中获得一组评估度量,并自动确定最佳加权组合,以捕捉自然语言领域中新的 few-shot 任务的复杂任务变化。在真实情感分析和对话意图分类数据集上进行了广泛的定量评估,结果表明所提出的方法在预测准确性方面表现优于现有的 few shot learning 算法。
May, 2018
本篇研究提出了一种方法,使用特定的 loss 函数,在保持图像和文本子空间内的语义连贯性的同时鼓励它们之间的语义协同,并改进了基线模型,以实现跨模态检索。
Jul, 2020
本文介绍了一种对称的对齐机制,用于学习从极少的例子中获取更广义的视觉概念的方法。实验结果表明,该方法是通用的,并提供了一个强大的基准。
Oct, 2022
多模态元学习中,通过语言表示来指导视觉学习的多模态架构被提出,但在两个流行的少样本分类基准上验证后发现改进效果不稳定且主要取决于桥连接网络的计算和参数引入。
May, 2024
本文介绍了一种基于多模态少样本学习的目标检测方法,使用视觉样本和分类语义信息来检测目标,通过元学习和提示学习相结合,在不需要微调的情况下建立通用少 / 零样本检测模型,同时引入知识蒸馏来解决针对稀有类别缺乏类名称先验知识的问题,通过在多个少样本数据集上的实验来验证该方法的有效性。
Apr, 2022
利用少量数据进行学习是一项具有挑战性的计算机视觉任务,本文通过引入高质量的语义以及使用简单的网络结构,设计了一个名为 “语义进化” 的自动化方式来解决少样本学习中的问题,实验证明该方法在少样本分类任务中表现优异。
Nov, 2023
结合 CLIP 的文本和图像编码器的多模态方法,在广泛采用的基准测试上超越了最先进的元少样学习模型,而无需额外训练。
Mar, 2024
本研究关注于使用额外语义信息以便在少量样本时进行图像分类,研究表明组合多种语义信息可以带来更好的效果。
Jun, 2019