该论文提出了一种跨模态特征生成框架,利用文本数据来弥补计算机视觉任务中数据稀缺的不足,进而提高分类结果,并在实验中证明该方法的有效性。
Nov, 2020
多模态元学习中,通过语言表示来指导视觉学习的多模态架构被提出,但在两个流行的少样本分类基准上验证后发现改进效果不稳定且主要取决于桥连接网络的计算和参数引入。
May, 2024
本文提出了一种机制,可以根据待学习的新图像类别自适应地从视觉和语义两方面结合信息,通过一系列实验表明,这种自适应组合可以在所有基准和 few-shot 情景上大幅优于当前单模态学习方法和模态对齐方法,特别是在少样本的情况下。
Feb, 2019
通过跨模态训练,结合视觉和语言信息,利用少量的训练样本和类名,建立了一个更好的狗狗分类器,并构建了第一个音视频少样本学习基准。
Jan, 2023
该论文提出新的相似度衡量方法和两个实验,揭示了通过神经网络进行模态之间的映射所得到的预测向量的周围结构更像输入向量而不是目标向量,并且没有训练的网络不会显著破坏输入向量的语义结构。
May, 2018
本文提出了一种在潜在空间中将 few-shot 分类问题重新表述为重建问题的方法。通过从给定类别的支持特征到查询特征的直接回归,无需引入新的模块或大规模可学习参数,我们引入了一种新的机制进行 Few-shot 分类,该机制被称为特征映射重建网络,它比以前的方法更有效和更高效。我们在四种细粒度基准测试和两种非细粒度基准测试上验证了这个方法的一致和显著的准确性增益。
Dec, 2020
本文提出了一种名为 MetaModulation 的方法,在元训练过程中使用神经网络调制批量归一化参数,以提高元训练任务的密度,并通过改变不同层面的参数来增加任务的多样性,同时提出了利用变分 MetaModulation 学习变分特征层级的方法,能够考虑任务不确定性和生成更多样的任务,结果表明 MetaModulation 和其变分变体在四个 few-task meta-learning 基准测试中都优于现有技术。
May, 2023
本文提出了一种新颖的跨注意力网络,以解决少样本分类中的挑战性问题。该网络包含交叉注意力模块来处理未知类的问题,引入传导推理算法来缓解数据量不足的问题,并在两个基准测试上展示优于现有方法的表现。
Oct, 2019
本文提出了 HyperShot—— 一种融合内核和超网络范例的高效 few-shot 学习方法,它利用超网络从支持的数据中返回算法分类器手工制作的参数,并通过内核表示支持数据的关系来适应高度不同的任务。
Mar, 2022
提出一种基于深度学习的多模态方法,通过有意义的联合嵌入来弥合模型训练中数据不足的信息差距,并通过跨模态数据幻觉框架提出了一个区分性文本条件生成对抗网络,改进了基于 CUB 数据集的一、二、五次学习的模型准确性。
Jun, 2018