本文探讨了用于减少 NLP 应用程序能源消耗的技术,其中包括衡量能源使用的技巧以及可以调节以减少训练和推理的能源消耗的不同硬件和数据中心设置,例如功率限制,可使基于变压器的语言模型训练的能源使用减少 15%。
May, 2022
本文通过使用深度卷积神经网络的实证研究,研究了深度学习模型的体系结构与其环境影响之间的关系,重点关注能源消耗和二氧化碳排放等方面的交易,并探讨了精度和能源效率之间的权衡,以及使用软件和硬件工具测量能量消耗的差异。
Feb, 2023
通过计算 T5,Meena,GShard,Switch Transformer 和 GPT-3 等几种大型模型的能源使用和碳足迹,我们发现大而稀疏的深度神经网络可以比大而密集的深度神经网络使用更少的能量,并且具有可接受的准确性。在由于地理位置和专用数据中心基础架构带来的差异方面,对机器学习的能源效率进行度量是具有挑战性的,但我们相信通过明确计算能源消耗和碳足迹,并与开发人员合作,将能源使用作为关键指标来评估模型,可以帮助减少机器学习的碳足迹。
Apr, 2021
通过将深度学习的效率作为评估标准之一,并建议报告开发、训练和运行模型的财务成本,以提供研究越来越高效方法的基准,本文旨在使人工智能更加绿色和包容,实现任何有灵感的本科生都可以编写高质量的研究论文。
Jul, 2019
该论文讨论了 NLP 研究中使用计算模型所耗费的能量问题,提出了使用气候表现模型卡的可行性,以简化气候报告。
该研究评估了大规模语言模型的二氧化碳排放,并提出减少碳排放的措施,探讨了硬件选择对二氧化碳排放的影响。基于结果,提出了培训更环境友好的人工智能模型的可能性,并认为可以在不牺牲其鲁棒性和性能的情况下实现。
Apr, 2024
介绍了针对机器学习模型训练期间能源消耗量的多种在线和软件工具,并对这些工具的特定词汇、技术要求进行了评估和比较,并提供了一些建议。
Jun, 2023
该论文通过对 NLP 的演变及其应用的准确性和效率的评论,以及提出和硬件考虑下对基于 transformer 模型的效率进行改进的研究贡献的调查,旨在确定当前 NLP 技术对可持续社会的贡献,并为未来研究奠定基础。
May, 2024
本文系统地回顾了 Green deep learning 技术的发展,将这些方法分类为紧凑网络、节能训练策略、节能推理方法和高效数据使用四个类别,讨论了已经实现的进展和未解决的挑战。
Nov, 2021
量化细调在自然语言处理中的能量成本和碳排放,研究发现细调的计算成本与预训练和推理相比可以得到更好的能量效率。
Nov, 2023