本文旨在通过实证研究来评估数据集修改对人工智能能源效率的影响。实验结果表明,可以通过仅对数据集进行修改(数据点数和特征数),显著降低(高达 92.16%)能耗并几乎不降低准确性。此外,本文还证明了通过更改算法能够实现节能(高达两个数量级)。研究成果呼吁进一步研究采用数据为中心技术,进一步推动绿色人工智能的普及。
Apr, 2022
本文介绍了一种名为 Benchmark-Tracker 的基准测试工具,该工具能够通过软件收集能源信息,从而评估人工智能和深度学习算法的速度和能耗,并在实验中展示了其潜力。
Nov, 2022
近年来人工智能的兴起和模型复杂度的增加已开始带来计算资源需求上的挑战,本文针对大规模 AI 方法的能源效率问题,通过对不同计算节点上深度学习模型进行测量,说明了在算法层面和未来计算集群和硬件设计方面,准确测量 AI 工作量的功耗需求之重要性,以及模型训练和推理的能耗差异,提供了降低成本、提高用户意识的解决方案。
Dec, 2022
AI 的碳排放问题及效率优化的机会和可持续性
Jun, 2024
提出一种基于进化的采样框架,旨在识别适用于数据集和模型配对的精英训练样本,比较模型性能和能效增益,调查该框架对促进可持续模型训练实践的可行性。经实验验证,考虑到 10% 的精英训练样本,模型性能可以提升 50%,能源节约达 98%。
Feb, 2024
调查了大规模神经网络训练的实际能耗,并介绍了 BUTTER-E 数据集,分析了数据集大小、网络结构和能量消耗之间的复杂关系,提出了一个能量模型,挑战了参数或 FLOP 减少是实现更高能效的最佳方法的假设,并建议在网络、算法和硬件设计上采用综合方法来实现能量效率。
Mar, 2024
人工智能的基准测试至关重要,但过度适应、饱和以及数据集集中化等问题已引起人们的关注。我们提出了一种方法来创建全球基准测试创作和饱和的简化地图,其中包括覆盖计算机视觉和自然语言处理的 3765 个基准测试的数据。我们发现许多基准测试很快趋于饱和,而其他一些则无法得到广泛利用。未来的基准测试应强调多功能性、广度和实用性。
Mar, 2022
本篇论文探讨了 AI 领域中对少量标准基准的高度评价,指出这种基准的限制并揭示了它们的建构效度问题,从而推动通向灵活且具有普适性 AI 系统的长期目标的进展。
Nov, 2021
本研究通过测量、预测和评分等三个方面的研究,揭示了边缘设备中深度学习的能量消耗特征,并设计了基于内核级能量数据集的边缘设备上的内核级能量预测器,最后引入了两个评分指标,旨在将复杂的边缘设备功耗和能量消耗数据转化为易于理解的形式,以推动边缘计算中的可持续发展思维。
Oct, 2023
通过将深度学习的效率作为评估标准之一,并建议报告开发、训练和运行模型的财务成本,以提供研究越来越高效方法的基准,本文旨在使人工智能更加绿色和包容,实现任何有灵感的本科生都可以编写高质量的研究论文。
Jul, 2019