通过贝叶斯自监督方法保护图卷积神经网络免受动态图扰动的影响
该论文提出了一种新的自我训练方法 (DR-GST),通过 dropout 变分推理和 dropedge 变分推理来恢复标注数据集的分布,并利用 loss 校正方法来提高伪标签的质量,在五个基准数据集上都取得了良好的效果。
Jan, 2022
本文首次对将自我监督技术应用于操作图形数据的图卷积网络(GCNs)进行了系统探索和评估。通过提出三种机制,分析预训练和微调以及自我训练的局限性,然后专注于多任务学习,并提出了三个新的自我监督学习任务的理论原理和数值比较。最后,将多任务自我监督整合到图形对抗性训练中。实验结果表明,适当设计任务形式和整合机制可以使 GCNs 获得更强的普适性和稳健性。
Jun, 2020
本文提出了两种无监督自学习策略来利用输入图形结构数据中的可用信息,以进一步改善有限的训练数据下模型的学习能力和性能。该方法在三个公共引文网络数据集上使用两个代表性的 GCN 模型进行了实验验证,展示了其在显著提高特征学习方面的自我监督学习能力和可移植性。
Jun, 2020
本文研究了图卷积网络在对抗扰动下的鲁棒性,通过提出 GraphDefense 方法,成功提高了图卷积网络的鲁棒性,同时能够维持半监督学习的设定,具有较大的应用潜力。
Nov, 2019
本文提出一种贝叶斯图卷积神经网络的框架,用于在图结构数据上进行节点分类和矩阵补全任务,并采用一种迭代学习算法来提高模型性能,并在试验中展示了当训练数据少时,该方法提供更好的性能。
Nov, 2018
本文提出了一种通过学习明确控制标签噪声的框架(RTGNN),包括自我强化和一致性正则化,以实现对带有标签噪声和少量标签的图形神经网络的训练,并证明了其在各种噪声情况下相对于现有方法的优越性能。
Nov, 2022
提出了一种新颖的分布一致图自训练(DC-GST)框架,通过显式地解决自训练过程中扩展训练集与测试集之间的分布差异,识别既具有信息量又能弥补分布差异的伪标记节点,并通过可微分的优化任务进行建模。采用了考虑分布差异的边预测器来增强图,提高模型在分配伪标签上的泛化能力。在四个公开基准数据集上进行了评估,并广泛实验证明,该框架始终优于最先进的基线模型。
Jan, 2024
本文研究机器学习领域的图半监督学习,提出了基于图卷积网络的深度学习方法,解决了图卷积网络机制不清晰及需要大量标注数据的问题,并针对浅层结构的限制提出了弱监督训练的方法。经过广泛实验验证,研究结果具有实际应用价值。
Jan, 2018
本文提出了一种名为 Consistent Graph Neural Network(CGNN)的新方法,它在图的标签噪声下仍然能够对节点进行分类,并通过基于同质性假设的样本选择技术来检测和纠正噪声标签。实验证明,与现有技术相比,CGNN 在三个基准数据集上具有更好的表现。
Jun, 2023
该研究论文提出了一种名为 CSGNN 的图神经网络方法,通过使用邻居聚合的潜在空间自适应选择可靠的节点,并解决了过拟合、标签噪声、类别选择和干净节点的学习问题。实验证明,CSGNN 在效果和鲁棒性上优于现有方法。
Nov, 2023