本文研究了在执行几次分割任务中进行推理的方式对性能产生了重要影响,并介绍了一种对查询图像进行转导推理的方法,通过优化包含交叉熵、Shannon 熵和 KL 散度规则的新损失函数,实现了具有竞争力的性能,尤其适用于 1-shot 场景以及基于不同数据集的领域偏移。
Dec, 2020
本文提出了一种基于拉普拉斯正则化的推导式推理方法,用于 few-shot 任务中的图聚类,以支持来自支持集的监督性约束。实验结果表明,在五个 few-shot 学习基准测试中,LaplacianShot 方法具有显著优于现有方法的性能表现。
Jun, 2020
这篇论文研究了在 CLIP 等视觉语言模型的快速发展文献中被完全忽视的跨导式零样本和少样本 CLIP 分类挑战,其中推断是在一批未标记的查询样本上进行的,而不是独立处理每个实例。通过构建信息性的视觉文本概率特征,本文提出了一个基于最小化问题的分类优化目标,使用 Dirichlet 分布来建模每个类的数据概率分布。我们采用一种新颖的块主导次优化算法来解决这个最小化问题,该算法同时估计分布参数和类别分配。对 11 个数据集进行的大量数值实验证明了我们批处理推断方法的益处和功效。在测试批次包含 75 个样本的零样本任务中,我们的方法在 ImageNet 准确性方面相对于 CLIP 的零样本性能提高了近 20%。此外,在少样本设置中,我们超过了现有的最先进方法。代码可在此链接获得:this https URL
Apr, 2024
论文提出了一种用于 few-shot 学习中元学习置信度和距离度量的方法,以提高模型在未见任务上的传导推理性能,并在四个基准数据集上获得了最新的最优结果。
Feb, 2020
本论文介绍了一种改进的算法,利用有标注数据和无标注数据的流形结构预测伪标签,在类之间平衡,并使用容量有限的分类器的损失值分布选择最干净的标签,以迭代方式改善伪标签的质量,从而在几个基准数据集上超越了现有技术结果,具有数据可用性与特征空间预处理的健壮性。
该论文介绍了使用专有和封闭的 API 来处理自然语言的普遍性和影响,重点讨论了少样本分类和转导推断在自然语言处理中的应用和优势。
Oct, 2023
本文提出了基于产品专家公式和 A UD 模块的零样本和少量样本归纳学习框架,利用来自非数据类的未标记采样来提高任意数量学习的泛化能力,并证明了该模型适用于有限监督场景下的广义零样本模型。
Jul, 2021
本文提出了一种新颖的基于转移学习的方法,通过预处理特征向量使其更接近高斯分布,并利用基于最优输运的算法 (在普遍情况下) 加以利用,证明了该方法在各种数据集、主干体系结构和少样本情形下达到最先进的准确性。
本研究提出了一种基于 Transductive Infomation Maximization 方法的 few-shot learning,通过优化查询特征和标签预测之间的信息熵,并结合支持集的监督损失,同时提出了一种新的交替方向求解器来加速迭代收敛,从而提高准确率。在多个数据集和网络上的实验表明,TIM 比现有方法表现更好,并且可以与任何基础培训特征提取器配合使用。
Aug, 2020
通过元学习方法在转导式环境中学习多个任务,通过使用未标记的查询集合生成更强大的模型来解决多任务学习中的问题,并提出了一种合成梯度网络和初始化网络组成的新型变分推理方法,优于以前的方法,并进一步探索了合成梯度的潜力。
Apr, 2020