G-Mixup:图形分类的图数据增强
本文提出了一种新的基于数据的非线性 mixup 机制,为样本对及其标签提供不同的 mixup 功能,通过在公共潜在特征空间上投射图形数据并探索非线性数据驱动的 mixup 策略,结合凸聚类生成一个最佳的数据增强方法来提高图分类的性能。
Oct, 2022
本文提出 ifMixup,一种基于插值的正则化技术,通过在输入的节点特征向量和边表示之间进行线性插值来改善 GNN 在监督图分类中的泛化能力,该解决方案使用 Mixup 在图像上的高效策略进行设计,并添加虚拟节点来使两个图形拥有相同的输入大小,实验结果表明 ifMixup 显著改善了预测准确率,优于流行的图形增强和 GNN 方法。
Oct, 2021
本文研究了通过 Mixup 进行图数据增强的方法,提出了一种为图分类提供软对齐的较为简单有效的 Mixup 方法 S-Mixup,并探究了其对图神经网络性能和鲁棒性的影响。
Jun, 2023
IntraMix 是一种针对图神经网络(GNNs)的通用框架,通过在同一类别的低质量标记数据之间应用 Mixup 生成高质量标记数据的方法,同时通过与同一类别高置信度数据连接生成的数据来建立邻居,从而解决了 GNNs 面临的两个挑战,挑战了在节点分类中 Mixup 的有限有效性的先验观念。
May, 2024
本文提出了一种名为 GraphMixup 的基于混合的框架,旨在改善图网络中的节点不平衡分类任务,通过使用两种基于上下文的自监督技术来捕获图结构中的局部和全局信息,并提出了针对图数据的 Edge Mixup 具体方法以及一种自适应机制 Reinforcement Mixup。实验结果表明,GraphMixup 对于节点不平衡分类任务具有非常好的效果。
Jun, 2021
本文提出了一种基于 Fused Gromov-Wasserstein 度量空间的 FGWMixup,旨在通过匹配图之间的节点来找到一种匹配策略,以提高图神经网络的泛化性和鲁棒性。
Jun, 2023
本文提出了一种新颖的基于混合的图形增强方法,称为图形双重混合(GDM),利用图形实例的功能和结构信息生成新的标记图形样本,以增加有限可用标记图形样本的大小和多样性,并通过两种新颖的平衡图形采样方法增强生成图形样本的平衡难度和多样性。在基准数据集上的实验证明,当标记图形稀缺时,我们提出的方法明显优于最先进的图形增强方法。
Sep, 2023
本研究探讨了图卷积和 Mixup 技术之间的关系。研究发现,在两个条件的基础上,图卷积可以被视为一种在训练和测试阶段都应用的特殊形式的 Mixup。这两个条件分别是:1)同质重标签 - 将目标节点的标签分配给其所有邻居;2)测试时间 Mixup - 在测试时间进行特征的混合。通过数学建模证明了图卷积网络(GCN)和简化图卷积(SGC)可以表示为 Mixup 的形式,并通过实证验证了这个等价性,使用这两个条件训练 MLP 取得了可比较的性能。
Sep, 2023
在本文中,我们提出了一种称为多重揉混(multi-mix)的简单而有效的扩展方法,它通过从样本对生成多个插值样本,可以比标准 mixup 更好地引导训练过程,从而在泛化性能、鲁棒性和校准度方面超过了各种 mixup 变体和非 mixup 基线。
Jun, 2024
提出基于全局聚类关系的新型数据扩增方法 ——Global Mixup,其中通过将先前的一阶段扩增过程分解为两阶段,从而将生成虚拟样本的过程与标记过程分离,并根据生成样本的全局关系计算子集对生成样本的标签重新标记,从而在更大的采样空间中生成更可靠的虚拟样本。在 CNN、LSTM 和 BERT 上的五项任务的广泛实验表明,Global Mixup 明显优于现有最新技术基线。
Jun, 2022