OLGA:一种单类图自编码器
提出了一种引入自顶向下路径的反层次指导网络(Reverse Hierarchy Guided Network),该网络在训练和推理过程中采用不同的方式,通过自顶向下的特征引导底层特征,同时将底层特征纳入感知过程,从而实现了性能优于其他模型的结果,并且在发现小物体和复杂场景中有良好的泛化能力。
May, 2024
本研究采用基于图的模型的半监督和单类别方法 LOSS-GAT,利用标签传播算法检测假新闻,并在实验证明其优于传统的二分类模型。
Feb, 2024
本研究提出了一种称为 OCGEC 的新型单一类别分类框架,使用少量的清洁数据和基于图神经网络(GNNs)的模型级后门检测来检测后门攻击。与其他基线相比,在许多任务上,我们的 OCGEC 方法实现了超过 98%的 AUC 分数,大大超过现有的方法,并且无需依赖大量的正样本和负样本。我们对图形场景的创新应用为泛用后门检测提供了新的见解,可用于改进其他后门防御任务。
Dec, 2023
本文提出了一种名为 Graph Contrastive Learning(GraphCL)的一般框架,以自我监督的方式学习节点表示,通过最大化同一节点的本地子图的内在特征和连接结构的两个随机扰动版本的表示之间的相似性来学习节点嵌入,并使用对比学习损失来最大化它们之间的一致性,证明我们的方法在节点分类基准测试中显着优于无监督学习的现有技术。
Jul, 2020
本文提出 Cleora 算法,使用迭代的带权平均和维度归一化的方式实现图嵌入的无监督学习,能在高效可扩展的情况下产生高质量的图嵌入,达到竞争水平的链接预测和节点分类结果,且与与对比算法相比计算成本明显更低。
Feb, 2021
本文提出了一种基于正交低秩嵌入的深度学习损失函数方法,用于同时提高图像分类的内部同类相似度和不同类之间的距离。该方法不需要手动选择训练样本,可以作为一个分类损失函数独立使用,并且可以提高深度网络的泛化能力、辨别能力和鲁棒性,特别是在数据 / 模型较小的情况下,能够显著提高 Stanford STL-10 数据集上的表现。
Dec, 2017
该研究提出了一种新的框架,Causality Inspired Invariant Graph LeArning (CIGA),通过使用因果模型来确定图表上的潜在分布偏移,从而捕获图表的不变性,以在各种分布偏移下保证 OOD 泛化性能。
Feb, 2022
图对比学习在图神经网络的强大优势下充分利用丰富的无标签信息来学习图的特征表示,然而现有的方法忽视了高阶图子结构的重要潜在信息,本研究通过引入拓扑不变性和扩展持久性的概念来解决这个限制,提出了一种新的对比学习模式并引入了扩展持久性景观,实验结果表明 TopoGCL 模型在无监督图分类中取得了显著的性能提升。
Jun, 2024
我们提出了一种新颖而稳健的图神经网络编码器,低秩图对比学习(LR-GCL),并通过低秩正则化方法进行原型对比学习训练,然后使用 LR-GCL 生成的特征进行线性传导分类算法来对图中的未标记节点进行分类。我们的方法受到图数据和标签的低频属性以及我们对传导学习的尖锐一般化界限的理论动机,是在图对比学习中低秩学习优势在理论上得到证明的第一批理论结果之一。广泛的公共基准实验表明了 LR-GCL 的卓越性能和所学节点表示的鲁棒性。
Feb, 2024
本研究旨在解决对比学习中普遍存在的不稳定问题,具体研究 InfoNCE 损失函数及其导数。我们揭示了这些损失函数表现出的一种限制行为,导致嵌入倾向于融合成一个奇异点的收敛现象,从而对后续的有监督学习任务中的分类准确性产生不利影响。通过理论分析,我们证明当嵌入被等化或限制在一个一维线性子空间时,它们代表了 InfoNCE 的一个局部最小值。我们的研究提出了一种创新策略,利用与精调阶段中通常使用的标记数据相同或更少的数据。我们提出的损失函数,正交锚回归损失,旨在解开嵌入聚类,显著增强每个嵌入的独特性,同时确保它们聚合到密集的、明确定义的聚类中。我们的方法在 CIFAR10 和 CIFAR100 数据集上通过仅使用传统标记要求的一小部分数据取得了显著改善,这一点可以从实验结果中得到证明。
Mar, 2024