Gaussian 原型网络在 Omniglot 上的少样本学习
本文介绍了一种新的针对单一类别训练原型 few-shot 模型的方法,引入了一个以零为中心的 “空类” 并通过批量标准化实现中心化,同时提出了一个用于距离计算的新的高斯层次,该层次考虑了支撑示例的分布而不仅是它们的质心,在 Omniglot 数据集上得到了.98 的分类准确率,在 MiniImageNet 数据集上的测试准确率为.8。
Jun, 2019
本文提出一种少样本学习方法,即使用原型网络从小样本中抽象出原型,将其映射到一个度量空间中,比较测试样本和原型之间的距离来进行分类,同时还将其拓展到零样本学习,取得了最先进的结果。
Mar, 2017
本文提出了一种基于聚类的半监督少样本分类方法,使用 Prototypical Networks 提取特征并结合 K-means 聚类算法,利用少量标记样本指导聚类过程,而用户反馈可以显著改善适应性能。通过图像数据的实验,证明了该策略的良好性能。
Nov, 2017
本文提出了一种为 few-shot 文本分类的经典网络增加高斯类原型和一种鼓励示例靠近适当类别中心的正则化项的简单方法,表明该方法比 13 个公共数据集和 4 个内部数据集的各种强基线更为出色,并将类分布作为检测潜在的部署时油水分离数据点的工具。
Oct, 2022
本文提出了 HyperShot—— 一种融合内核和超网络范例的高效 few-shot 学习方法,它利用超网络从支持的数据中返回算法分类器手工制作的参数,并通过内核表示支持数据的关系来适应高度不同的任务。
Mar, 2022
本文提出了原型校准方法,用于零样本和少样本分类中自适应地学习更健壮的决策边界,以替代贪婪解码。实验结果表明,原型校准在各种任务中都有显著的提高,从而极大地提高了 GPT 对不同模板、排列和类别不平衡的鲁棒性。
May, 2022
本文介绍了一种概率框架来进行 k-shot 图像分类。该方法将从初始大规模分类任务中学习的表示转移并结合了关于类别的信息,用于建立后验概率模型进行 k-shot 学习,结果表明即使是简单的概率模型也能取得与当前最先进算法相当的识别率,并能够准确建模不确定性。
Jun, 2017
本文提出了一种基于高斯模型的特征分布参数估计方法,通过估计类间条件密度之间的距离实现对于少样本分类任务中泛化误差的预测,并在实验中表明该方法优于 leave-one-out cross-validation 等传统方法。
Dec, 2022