我们提出了一种基于关键路径的线性聚类方法,利用机器学习数据流图中的并行路径来优化图的结构,从而加速串行执行速度,并在编译和运行时优于一些当前机制。
Aug, 2023
本文提出了一种层级并行的方法来训练深度卷积神经网络,在这种方法中,每层神经网络都可以应用不同的并行策略以优化训练,通过解决图搜索问题来协同优化每个层的并行化方式。 实验结果表明,与现有的并行化方法相比,采用该方法可以提高训练吞吐量,降低通信成本,实现更好的多 GPU 可扩展性,并保持原始网络的准确性。
Feb, 2018
该论文提出了一种基于 SpecTrain 的管道模型并行执行方法,可以在保持训练准确性的前提下,实现高 GPU 利用率,相比数据并行法可提高 8.91 倍的速度。
Sep, 2018
本文综述了 Deep Neural Networks 的并行处理问题,探讨了并行化分布式架构,并详细介绍了并发类型、异步随机优化、通信方案、神经架构搜索等不同方向的研究方法,最终提出了深度学习并行处理的潜在方向。
提出了一种称为 DAPPLE 的同步训练框架,它将数据并行和管道并行相结合,采用新颖的并行化策略规划器解决了分区和放置问题,并探索了数据和管道并行的最佳混合策略。与 GPipe 相比,DAPPLE 运行时间提高了 1.6 倍的训练吞吐量,并将内存消耗降低了 12%。
Jul, 2020
深度神经网络的管道并行化方法 (GPP) 以及分布式系统 GraphPipe 通过优化微批量进度和并行训练实现了对现有管道并行系统如 PipeDream 和 Piper 的提速和搜索时间的降低。
Jun, 2024
该论文研究了神经网络训练中的数据并行和稀疏性等因素及其对训练的影响,发现批次大小与训练次数之间存在一种普遍的缩放趋势,并通过理论分析阐明了这种现象,为神经网络训练提供了更好的解释。
Mar, 2020
这篇论文展示了硬件和软件的协同设计如何为特定的大型语言模型工作负载创建定制的硬件系统,通过模型并行技术和多加速器仿真框架实现效率度量,重点关注推理工作负载并报告多种软硬件配置下的功耗、周期和延迟度量。
Dec, 2023
神经网络的主题和研究领域涉及神经网络、模型并行性、操作符图、实施挑战和变压器网络。
Mar, 2024
本文提出了一种模型并行框架 TAP,利用神经网络作为有向无环图的性质,设计了一种图剪枝算法以高效地搜索最佳的数据和张量并行计划,实验表明 TAP 比现有自动并行化框架快 20-160 倍,并且其发现的并行化计划比专家设计的计划具有竞争力。
Feb, 2023