MNN:混合最近邻算法用于自监督学习
NNCLR 是一种基于最近邻对比学习的自监督学习算法,将数据集中最近邻作为正样本而不是图像的不同视角,能够提供比预定义的变换更多的语义变化,达到了在 ImageNet 分类和迁移学习基准测试中超越现有先进方法的效果。此外,该方法的鲁棒性能更好,对于数据变换的依赖性更小。
Apr, 2021
本文提出了一种基于拓扑信号驱动的自监督学习方法,通过使用多尺度的拓扑信息特征和具有高结构等价性的非邻居节点对之间的拖拽作用,解决了现有图神经网络中的邻近偏见问题,并在七个图数据集上的节点分类任务中有效提高了模型性能。
Dec, 2022
该研究探讨在使用 Imagenet 预训练特征空间的情况下,最近的自我监督深度方法是否确实优于最近邻方法进行异常检测。通过实验证明,仅使用简单的最近邻方法在准确度,few shot 泛化,训练时间和噪声稳健性方面均优于自我监督方法,同时在图像分布方面做出较少的假设。
Feb, 2020
本研究提出了 SelfGNN,它是一种基于对比自监督技术的图神经网络,采用批量标准化和四种图形特征增强技术来实现无监督学习。除了使用常用的图形拓扑增强技术(TA),实验证明我们提出的特征增强(FA)能够与 TA 同样好地发挥作用,而且没有计算开销。在七种公开数据集上的实验结果表明,SelfGNN 表现出较高水平的性能,与 SOTA 监督 GNN 性能相当,并且始终优于 SOTA 半监督和无监督 GNN。
Mar, 2021
本文重新思考了对比学习方法中二元实例判别的不足之处,提出了基于相关实例(即软近邻)的对比学习方法(SNCLR),该方法有效地提高了 VIT 和 CNN 编码器中的特征表示,从图像分类、目标检测和实例分割三个标准视觉识别基准方面得到了验证。
Mar, 2023
本文提出了一种用于 Few-shot learning 的 DMN4 模型,采用相互最近邻关系显式地选择与任务最相关的查询描述符并丢弃不相关的聚合噪声,通过广泛的实验验证,DMN4 模型在精细分类和广义数据集上均优于现有技术。
Mar, 2021
本文主要研究了基于简单特征变换的最近邻分类器在 few-shot 学习上的精度,并发现在 miniImageNet 数据集中,使用平均值减法和 L2 归一化的最近邻分类器在三个设置上优于之前的结果。
Nov, 2019
本研究针对深度学习在对抗性环境下的鲁棒性和预测不可解释性等问题,通过将 k-NN 算法与深度学习结合,提出了一种名为 DkNN 的混合分类器,它可以为输入数据提供信心估计和人类可解释的预测解释。实验证明,DkNN 算法可以准确识别模型外部的输入,同时提供直观和有用的模型失败解释。
Mar, 2018