本文提出了Deep Divergence Graph Kernels这种无监督的方法,可以学习表示图形相似性,对齐子结构,不依赖监督、领域特定知识或已知节点对齐,并取得了具有竞争力的图分类任务结果。
Apr, 2019
通过解释图嵌入任务及其挑战、回顾广泛的图嵌入技术、评估多种先进方法并比较它们的性能,本文综述了图表示学习的最新研究进展,同时探讨了其在潜在应用和未来发展方向的应用与发展。
Sep, 2019
本文介绍了一种名为GraphZoom的多层框架,旨在提高无监督图嵌入算法的准确性和可扩展性。该方法利用节点属性和图拓扑信息进行图合并,并通过多次缩小并简化合并的图,将现有嵌入方法应用于合并后的图,从而在多种图数据集上达到更高的分类准确性和更快的处理速度。
Oct, 2019
本文提出了一个新颖的概念,图互信息(Graphical Mutual Information,GMI),用于无监督地将图结构数据中的丰富信息提取到嵌入空间中进行表示学习,同时运用GMI开发了无监督学习模型并在节点分类和链接预测等任务上表现出明显的优越性。
Feb, 2020
本文提出一种名为 GRAPHEDM 的综合方法,旨在将有标注数据的网络嵌入、基于图的正则化神经网络和图神经网络三者统一起来,构成一种用于学习图表征的完整分类法。通过将现有的30多种算法整合到这一框架中,本方法具有很高的通用性,从而提供了理解这些方法背后的直觉基础,促进了此领域未来研究的发展。
May, 2020
本研究对图神经网络进行深入探究,提出了解决深度学习中过度平滑问题的新方法,并通过实验证明了其在引文、合著和共同购买等领域的卓越表现。
Jul, 2020
本文通过使用互信息(mutual information)引入局部区域和全局区域的概念,并利用双层聚合对复杂的节点特征进行建模,实现了对于无序图中节点表示的高效学习和训练。同时,借助于自监督学习,将有限的标签数据结合互信息理论进行更加细致的标签预测,证明了本文提出的模型在各种图结构中都有着优越的表现。
Apr, 2021
本文提出一种利用自监督学习策略来学习图中节点信息表示的简单而有效方法,通过直接最大化节点和它们的邻居的隐藏表示之间的互信息来获得上下文信息,并采用拓扑感知的正样本采样策略,并借助正样本选择提高了表示学习的质量和有效性。
Mar, 2022
本论文提出了一种新颖的基于注意力机制的节点嵌入框架,该框架使用基于节点周围子图集合的分层核,并使用一个光滑的统计流形来比较多组集合,从而明确计算与高斯混合嵌入流形的传播注意,其应用在节点分类任务上,取得了优于现有模型的效果。
May, 2023
通过在信息汇总和更新阶段增加邻居级别的信息交互编码,提升了图表示学习的性能,并在四个高需求任务中取得了最新的技术成果。
Apr, 2024