Few-Shot 学习的原型完备性
本研究提出了一种新的基于原型完成的元学习框架,该框架设计了一个原型完成网络来学习完成原型,通过高斯原型融合策略进一步提高分类器精度,实现了对于小样本分类的更准确的原型对比,并且在分类准确度上领先于现有的技术 2%-9%。
Sep, 2020
本文提出了一种针对 few-shot learning 中使用的分类器训练,通过在基础模型中冻结或微调特定层以转移部分知识来提高性能,并引入基于进化搜索的方法以自动化此选择过程,以得到在 CUB 和 mini-ImageNet 中具有最先进表现的该方法。
Feb, 2021
本文提出了一种自监督的原型传递学习方法 ProtoTransfer,旨在通过构建一个可以将未标记的样本和它们的增强聚类在一起的度量嵌入来预测少量标记数据的正确类别。我们在 mini-ImageNet 数据集上的少量样本分类任务中通过 ProtoTransfer 方法超越了最先进的无监督元学习方法。在存在领域偏移的少样本实验中,我们的方法甚至具有可比拟于监督方法的性能,但需要 orders of magnitude 较少的标签。
Jun, 2020
本研究致力于发展一种在少量标记数据情况下对未标记数据进行分类的方法并提出一种新型 Prototypical Networks 和一种使用未标记数据的元学习算法来解实际问题,经过对 Omniglot、miniImageNet 和 ImageNet 进行实验,验证了这些算法可以使预测结果得到显著改进。
Mar, 2018
提出了一种新的增量原型学习方案,其中包括自适应特征表示和自我推进的原型细化机制,通过动态关系投影模块来计算共享嵌入空间中的关系矩阵并将其作为引导原型更新的因素,经过三个基准数据集的广泛实验,表现优于现有的增量学习方法。
Jul, 2021
本文提出了 Compositional Prototypical Networks(CPN)以及学习转移原型和元知识的方法,以提高特征重用性并取得了在不同数据集和设置下的最先进的结果。
Jun, 2023
本文提出了一种两阶段的训练策略 Partner-Assisted Learning(PAL)用于 Few-shot Learning,通过训练伙伴编码器和主编码器来获得基本表示,并设计对数输出和特征级别的对齐约束,从而在几个基准测试中一致优于最先进的方法。
Sep, 2021
本文提出了一种利用潜在原型的对比增强方法来提高 few-shot 分割模型性能的方法,通过采样模块生成伪掩模和新的原型,从而提高原型和查询特征之间的相似性信息的利用率,并通过对比增强模块来提高预测性能。实验证明,该方法在 Pascal-5^i 和 COCO-20^i 的 1-shot 和 5-shot 分割任务中的性能明显优于现有方法,尤其在 5-shot 任务中,性能分别比基准提高了 5.9% 和 7.3%。
Mar, 2022
本文提出了一种新的半监督少样本学习的转移学习框架,用于充分利用标记基础分类数据和未标记新类数据的辅助信息,并基于该框架开发了一种称为 TransMatch 的新方法,通过 Imprinting 和 MixMatch 实例化三个组件,实验结果表明,该方法可以显著提高少样本学习任务的准确度。
Dec, 2019
基于元学习框架,我们提出了一种端到端训练范式,通过整个训练集的信息与元学习训练范式相互增强,以解决少样本学习中训练成本高和性能欠佳的问题。而且,我们的框架是无模型偏见的,相比基准系统提升了约 1% 的性能。
Mar, 2024