基于双重相关性减少的深度图聚类
本研究提出了一种新的深度图聚类算法称为 IDCRN,通过改善样本的区分能力来缓解已存在的表示崩溃问题并且避免过度平滑的情况,通过将交叉视图特征关联矩阵近似为一个恒等矩阵来减少特征之间的冗余性以明确地提高潜在空间的区分能力。在六个基准测试上的广泛实验结果表明,IDCRN 相对于现有的最先进的深入图聚类算法具有更高的效率和有效性。
Feb, 2022
基于图卷积网络,提出了深度对比图学习模型(DCGL),用于一般数据聚类。该模型通过建立伪孪生网络,将自编码器与图卷积网络相结合,强调图结构和原始特征,并引入特征级对比学习来增强判别能力,利用样本与质心之间的关系作为聚类导向指引。然后,设计了双分支图学习机制来提取局部和全局结构关系,并在聚类级别对比指导下将其嵌入到统一的图中。在几个基准数据集上的实验结果表明,DCGL 相对于现有算法具有优越性。
Feb, 2024
该论文提出了一种结构深度聚类网络(SDCN)方法,它将图卷积网络(GCN)的结构信息整合到深度聚类中,通过自监督学习机制使两种不同的深度神经网络架构统一并指导整个模型更新,进而提高聚类的准确性。
Feb, 2020
我们提出了基于经典的图卷积神经网络的图学习双图卷积神经网络 GLDGCN,并将其应用于半监督节点分类任务,在 Citeseer、Cora 和 Pubmed 三个引文网络上取得了更高的分类准确率,同时分析和讨论了超参数和网络深度的选择。我们还将子图聚类和随机梯度下降技术引入 GCN,并设计了基于聚类图卷积神经网络的半监督节点分类算法,使 GCN 能够处理大规模图数据并提高其应用价值,在 PPI 数据集(超过 50,000 个节点)和 Reddit 数据集(超过 200,000 个节点)上也表现良好。
Apr, 2024
本文介绍了一种用于自监督图数据表示学习的概念简单而有效的模型,其通过数据增强生成输入图的两个视图,并通过受经典标准相关分析启发的创新特征级目标进行优化,旨在学习不变表示,并通过不同维度中的相关特性来防止退化解决方案,最终在七个公共图数据集上表现竞争力。
Jun, 2021
本论文提出了一种名为 DCCM 的新型聚类框架,可以从三个方面探索和充分利用未标记数据中的各种相关性,通过伪标签监督,全面的研究特征对输入空间的图像变换的稳健性,并将 triplet 互信息应用于聚类问题中,从而进一步有助于学习更有区分性的特征。在多个数据集上进行了广泛的实验,取得了良好的性能,例如在 CIFAR-10 上达到 62.3%的聚类准确度,比现有最先进方法高出 10.1%。
Apr, 2019
使用图神经网络(GNNs)学习连贯且有区分力的节点表示以进行聚类在深层图聚类中已经显示出了良好的结果。然而,现有方法忽视了表示学习与结构增强之间的相互关系。该研究表明,增强嵌入和结构的协同作用对于释放 GNNs 在深层图聚类中的潜力变得必要。可靠的结构促进获取更连贯的节点表示,而高质量的节点表示可以指导结构的增强,从而提高结构的可靠性。此外,现有基于 GNNs 的模型的泛化能力相对较差。尽管它们在具有高同质性的图上表现良好,但在具有低同质性的图上表现较差。为此,我们提出了一个名为 Synergistic Deep Graph Clustering Network(SynC)的图聚类框架。在我们的方法中,我们设计了一个名为 Transform Input Graph Auto-Encoder(TIGAE)的模型来获取高质量的嵌入,并用于引导结构增强。然后,在增强的图上重新捕捉邻域表示以获得适合聚类的嵌入,并进行自监督聚类。值得注意的是,表示学习和结构增强共享权重,从而大大减少了模型参数的数量。此外,我们引入了一种结构微调策略以提高模型的泛化能力。对基准数据集进行的大量实验证明了我们方法的优越性和有效性。代码已在 GitHub 和 Code Ocean 上发布。
Jun, 2024
本文提出了一种深度融合聚类网络(DFCN),采用自编码器和图自编码器进行结构信息的处理并采用可靠的目标分布生成度量和三元自监控策略,以实现交叉模态信息利用,对六个基准数据集的广泛实验表明,DFCN 一致优于现有技术。
Dec, 2020
该论文提出了一个新视角来观察深度图神经网络表现下降的问题,即特征过度相关性。作者通过理论和实证探究了这一问题的存在及可能的原因,并提出一个名为 DeCorr 的通用框架来消除特征冗余信息,从而减少特征相关性问题,实验证明提出的方法可以帮助深度图神经网络在解决过度平滑问题中起到补充作用。
Jun, 2022
提出了一种名为 R$^2$FGC 的新颖自监督深度图聚类方法,它可以从全局和局部视角提取属性和结构级别的关系信息,并通过保持增加节点之间的一致关系和减少冗余关系来学习具有判别性的嵌入表示。实验证明,R$^2$FGC 在广泛使用的基准数据集上优于现有的基准方法。
Sep, 2023