- 分子设计中贝叶斯优化的常见问题诊断与修复
贝叶斯优化是一种原则性的分子设计方法,本文解释了贝叶斯优化中存在的三个问题,即先验宽度错误、过度平滑和不充分的收购函数最大化,在解决了这些问题之后,即使是基本的贝叶斯优化设置也能在 PMO 分子设计基准测试中取得最高的整体性能,这些结果表明 - ICMLGATE: 如何阻止侵入的邻居
GATE 是一种 GAT 的扩展,通过解决不必要的邻居聚合的根本原因,减轻了过平滑问题,并通过减小与不相关邻居的连接权重,在真实世界的异质数据集上常常优于 GAT。
- 通过重新参数化的 DDIM 进行分数蒸馏
通过修改 DDIM,我们的方法在 3D 生成中消除了过度平滑,保留了高频细节,并使生成质量接近于 2D 采样器,从而取得了与其他先进的分数蒸馏方法相当或更好的 3D 生成质量,而无需训练额外的神经网络或多视图监督,并为扩散模型中 2D 和 - RandAlign: 一种无参数的正则化图卷积网络方法
基于随机插值的 RandAlign 是一种无需额外参数的方法,用于解决消息传递图卷积网络中的过度平滑问题,并提高图表示学习的泛化性能。
- 光谱图修剪抵抗过度压缩和过度平滑
通过删除边可以同时解决过度压缩和过度平滑的问题,从而提高图神经网络的泛化性能,并将谱间隙优化与减少计算资源的目标相连接。
- 图神经聚合 - 扩散与亚稳态
基于微分方程的连续图神经模型拓展了图神经网络的架构,通过聚合 - 扩散方程启发的 GRADE 模型在非线性扩散和聚合之间找到了一种微妙的平衡,通过产生亚稳态节点表示聚集成多个聚类,从而缓解了过度平滑的问题,该模型达到了竞争性的性能,证明了其 - 通过 GNN 的反向过程区分异质图的邻居表示
通过逆向消息传递过程,改进了图神经网络中的过度平滑问题,并提高了在异质图中节点分类的预测性能。
- SIBO:用于参数高效微调的简单增强
通过注入初始残差,SIBO 提出了一种简单的增强参数高效微调(PEFT)技术,以减轻过度平滑现象并提高性能。实验证明,SIBO 显著改善了各种强基线的性能,分别在算术和常识推理任务上实现了 15.7%和 23.5%的改进。
- SimCalib: 基于节点相似度的图神经网络校准
通过理论分析揭示了图神经网络(GNN)校准与节点相似性之间的关系,并提出了一种新的校准框架 SimCalib,该框架能够考虑全局和局部层面上的节点相似性,实验证明节点相似性与模型校准的改进存在相关性,并通过在 14 个基准测试中达到最先进性 - 关于 GNNs 中过度压缩问题的阐述:当前方法,基准和挑战
论文总结了当前文献中过度压缩问题的不同表述,并提出了三种解决这一问题的方法,讨论了过度压缩与可表达能力之间的对齐以及过度压缩与过度平滑之间的权衡,总结了现有工作中用于验证过度压缩缓解方法有效性的实证方法,并列出了一些有待进一步探索过度压缩问 - 利用 Forman-Ricci 曲率的增强来缓解平滑过度和压扁过度
基于图神经网络的重连技术与曲率属性相关的方法,在提高性能的同时降低了计算成本和搜索超参数的需求。
- Bregman 图神经网络
本文提出了一种灵感来自 Bregman 距离概念的 GNNs 的新型双层优化框架,通过引入类似于 “跳跃连接” 的机制,有效地缓解了过度平滑问题,并证明了该方法在同质性和异质性图中优于原始 GNNs。实验证明,即使层数较高,Bregman - 图神经网络中强化平滑与过度压缩的统一:一种基于物理信息的方法及拓展
借鉴于经典和量子物理中常用的反时间原理,本研究颠倒了图热方程的时间方向,产生了一类高通滤波函数,提高了图节点特征的清晰度。基于此概念,引入了基于多尺度热核的图神经网络 (MHKG),通过综合不同的滤波函数对节点特征的影响,进一步将 MHKG - 图神经网络中的排名崩溃导致过度平滑和过度相关
我们的研究揭示了深度图神经网络中的超平滑和特征过相关性的新的理论洞见。我们展示了不变子空间的普遍性,证明了固定的相对行为不受特征变换的影响。在线性场景中,这导致节点表示被低维子空间主导,其渐近收敛速率与特征变换无关,这导致节点表示的秩崩溃, - KDD基于曲率的图神经网络中的汇聚
通过利用曲率概念,CurvPool 构建了一个具有更适合结构的图形,以解决图神经网络中的过度平滑和过度压缩问题,并在分类准确性、计算复杂性和灵活性等方面表现出竞争力。
- 雪花假设:用一节点一感受野训练深度神经网络
我们研究了深度图神经网络的研究轨迹,发现其成功主要源于从 CNN 中采用的创新或定制的聚合算法,然而这些算法往往缺乏内在的可解释性,没有捕捉到不同节点之间的微妙差异。因此,我们提出了雪花假设,将其作为节点吸收领域的概念,通过最简单的梯度和节 - ICML半跳:减速消息传递的图上采样方法
通过添加 “慢速节点” 来改善消息传递神经网络中的学习,提供理论和实证分析,报告在多个监督和自监督基准上的改进,并展示了如何用于自监督学习生成增强,该增强通过在图中不同的边上随机引入慢速节点来产生多尺度视图。
- 针对图神经网络的限制进行解决
该报告总结了图卷积网络(GCNs)中的过度平滑和异质性挑战,并概述了未来的研究方向。
- 面向深度图卷积网络的结构感知 DropEdge
通过实验研究,本文介绍并提出了一种名为 DropEdge++ 的新颖技术,在多层图卷积网络中有效缓解过度平滑的问题,进而提升节点分类的性能。
- 用子图特定因子嵌入归一化改善 GNN 的表达能力
本文提出一种专门针对节点诱导子图的归一化方案 ——SU bgraph-s PE cific Facto R Embedded Normalization(SuperNorm),以加强 GNN 的代表性能力,并利用理论分析和实验证明其有效性,