ifMixup:插值图对正则化图分类
本文研究了通过 Mixup 进行图数据增强的方法,提出了一种为图分类提供软对齐的较为简单有效的 Mixup 方法 S-Mixup,并探究了其对图神经网络性能和鲁棒性的影响。
Jun, 2023
GraphMix 通过参数共享及插值正则化训练全连接网络与图神经网络,提升了后者的泛化性能,能用于多种图神经网络结构,能显著提升各种基准测试的性能。
Sep, 2019
本文提出了一种新的基于数据的非线性 mixup 机制,为样本对及其标签提供不同的 mixup 功能,通过在公共潜在特征空间上投射图形数据并探索非线性数据驱动的 mixup 策略,结合凸聚类生成一个最佳的数据增强方法来提高图分类的性能。
Oct, 2022
IntraMix 是一种针对图神经网络(GNNs)的通用框架,通过在同一类别的低质量标记数据之间应用 Mixup 生成高质量标记数据的方法,同时通过与同一类别高置信度数据连接生成的数据来建立邻居,从而解决了 GNNs 面临的两个挑战,挑战了在节点分类中 Mixup 的有限有效性的先验观念。
May, 2024
本文提出了一种基于 Fused Gromov-Wasserstein 度量空间的 FGWMixup,旨在通过匹配图之间的节点来找到一种匹配策略,以提高图神经网络的泛化性和鲁棒性。
Jun, 2023
本文提出了一种名为 GraphMixup 的基于混合的框架,旨在改善图网络中的节点不平衡分类任务,通过使用两种基于上下文的自监督技术来捕获图结构中的局部和全局信息,并提出了针对图数据的 Edge Mixup 具体方法以及一种自适应机制 Reinforcement Mixup。实验结果表明,GraphMixup 对于节点不平衡分类任务具有非常好的效果。
Jun, 2021
本研究探讨了图卷积和 Mixup 技术之间的关系。研究发现,在两个条件的基础上,图卷积可以被视为一种在训练和测试阶段都应用的特殊形式的 Mixup。这两个条件分别是:1)同质重标签 - 将目标节点的标签分配给其所有邻居;2)测试时间 Mixup - 在测试时间进行特征的混合。通过数学建模证明了图卷积网络(GCN)和简化图卷积(SGC)可以表示为 Mixup 的形式,并通过实证验证了这个等价性,使用这两个条件训练 MLP 取得了可比较的性能。
Sep, 2023
本文提出了一种名为 Infinite Class Mixup 的基于分类器混合的新型数据增广策略,通过对每个增广样本定义一个唯一的新分类器,而不是对训练对标签进行混合,使得神经网络能够更好地学习不同数据类之间的线性行为模式,并在多种模型上取得了较好的性能表现。
May, 2023
提出基于全局聚类关系的新型数据扩增方法 ——Global Mixup,其中通过将先前的一阶段扩增过程分解为两阶段,从而将生成虚拟样本的过程与标记过程分离,并根据生成样本的全局关系计算子集对生成样本的标签重新标记,从而在更大的采样空间中生成更可靠的虚拟样本。在 CNN、LSTM 和 BERT 上的五项任务的广泛实验表明,Global Mixup 明显优于现有最新技术基线。
Jun, 2022