大规模深度学习优化:综述
这篇文章调查了 2018 年至 2023 年期间关于算法和技术的文献,旨在实现大规模分布式深度学习中的高效通信,包括算法、框架和基础设施。具体而言,我们首先介绍了在大规模分布式训练中模型同步和通信数据压缩方面的高效算法。接下来,我们介绍了与分布式训练和推理中资源分配和任务调度相关的高效策略。此后,我们介绍了现代通信基础设施中使用的最新技术,重点研究了大规模和异构环境下通信开销的影响。最后,我们通过对大规模语言模型的分布式训练进行案例研究,展示了如何在实际情况中应用这些技术。这篇文章旨在为研究人员提供对大规模分布式深度学习的现状全面的理解,并揭示在这一领域中通信高效解决方案的有希望的未来研究方向。
Apr, 2024
对于深度学习模型的训练加速技术的综述,主要从数据中心、模型中心、优化中心、预算训练和系统中心五个角度入手,详细介绍了各个方面减小计算复杂度的方法,其中包括数据样本的正则化、模型参数的减少和优化目标的设计等。
Apr, 2023
介绍了深度学习效率问题和五个核心领域,包括建模技术、基础设施和硬件,并提出实验指南和代码,为实践者优化模型培训和部署提供支持。这是第一个详尽的调查,涵盖了从建模技术到硬件支持的模型效率领域,帮助实践者实现改进并装备他们以进行进一步的研究和实验。
Jun, 2021
本文讨论了数值优化算法在机器学习应用中的过去、现在和未来。通过文本分类和深度神经网络训练的案例研究,探讨优化问题在机器学习中的出现和挑战,强调了大规模机器学习环境下随机梯度方法的重要性和传统梯度优化方法的局限性。基于这种视角,提出一种简单,通用的随机梯度算法,并讨论其实际表现和改进机会。最后,针对大规模机器学习的下一代优化方法进行了探讨,包括降低随机方向噪声的技术和使用二阶导数近似的方法两大研究方向。
Jun, 2016
本文系统地回顾了 Green deep learning 技术的发展,将这些方法分类为紧凑网络、节能训练策略、节能推理方法和高效数据使用四个类别,讨论了已经实现的进展和未解决的挑战。
Nov, 2021
本文提出了一种学习自我学习模型和一些实用技巧,以优化损失函数的训练问题,其优化器在许多任务上优于通用的优化算法和 DeepMind 的学习优化器,包括深度 MLP、CNN 和简单的 LSTM。
Mar, 2017
SINGA 是一个可扩展、易用的分布式深度学习平台,具有基于深度学习模型的通用层抽象的直观编程模型和具体优化技术,可在 GPU 和 CPU 上运行,在实际的多媒体应用中的应用表现出了良好的可用性和可扩展性。
Mar, 2016