Oct, 2023
开源自我优化模型中的成本与性能权衡探究
Democratizing LLMs: An Exploration of Cost-Performance Trade-offs in
Self-Refined Open-Source Models
TL;DR我们提出了一种无外部干扰的非定向迭代自我批判和自我完善的方法,以及一种新颖的评分指标,用于在考虑到性能和成本的情况下为给定任务找到最佳模型。我们的实验表明,规模不同的SoTA开源模型在性能方面平均提高8.2%。这对希望在不牺牲性能和隐私的情况下利用LLMs的资源有限和信息敏感环境具有重要意义。