Mar, 2024
迈向更环保的 LLM:将能源效率置于 LLM 推理的前沿
Towards Greener LLMs: Bringing Energy-Efficiency to the Forefront of LLM Inference
Jovan Stojkovic, Esha Choukse, Chaojie Zhang, Inigo Goiri, Josep Torrellas
TL;DR本文对大型语言模型(LLMs)的推理服务中能源效率的权衡进行了研究,通过探索延迟、吞吐量和能源之间的平衡,提供了优化能源使用的有价值见解,为数据中心环境中可持续且具有成本效益的 LLM 部署铺平了道路。