BriefGPT.xyz
大模型
Ask
alpha
关键词
distributed gnn training
搜索结果 - 5
变通信速率下的大规模图神经网络分布式训练
在分布式图神经网络训练中引入了一种变化的压缩方案,用于减少通信量而不降低学习模型的准确性,并通过理论分析和实证结果证明了其性能优于完全通信情况下的压缩比。
PDF
9 days ago
Disttack: 面向分布式 GNN 训练的图对抗攻击
Disttack 是用于分布式 GNN 训练的首个对抗攻击框架,通过在单个计算节点中注入对抗攻击来破坏分布式 GNN 训练的梯度同步,导致训练后 GNN 的性能显著下降。
PDF
2 months ago
基于分布式矩阵采样的图神经网络训练
该论文的主要贡献是在分布式图神经网络训练的采样步骤中提出了减少通信的新方法,其中包括基于矩阵的批量采样方法,用于表示采样为稀疏矩阵乘法(SpGEMM)并一次采样多个小批量。此外,还展示了使用简单的全互连交换合理复制特征数据可以优于当前的分布
→
PDF
8 months ago
分布式图神经网络训练的分区策略实验比较
本文研究了图分区对分布式图神经网络训练的有效性,发现图分区是一个关键的预处理步骤,能够大大减少训练时间和内存占用,同时也证明了分区所需的时间可以通过减少图神经网络训练时间加以弥补。
PDF
10 months ago
联邦图学习 -- 一个立场论文
在分布式数据隐私敏感的场景下,集中式训练图神经网络模型面临一些挑战,因此我们提出了一种名为联邦图学习(FGL)的方法,借助于联邦学习技术在保持数据去中心化的同时共同训练模型,并对 FGL 进行了分类、讨论、挑战和应用倡议。
PDF
3 years ago
Prev
Next