Jun, 2024

利用最大多样性微调解锁大型语言模型的规划能力

TL;DR大型语言模型 (LLMs) 具有令人印象深刻的任务解决能力,通过提示技术或系统设计实现。然而,在规划任务方面,对它们的熟练度引发了一些关注,因为它们常常难以生成有效的计划。本文研究了精调对LLMs规划能力的影响。我们的发现表明,通过大规模精调 (数千个具体示例),LLMs可以在规划中获得良好的性能。然而,精调伴随着显著的经济和计算成本。为了解决这一挑战,我们提出了最大多样性精调 (MDFT) 策略,以改进规划领域中精调的样本效率。具体地,我们的算法 (MDFT-g) 通过使用图形表示对规划任务实例进行编码,并在向量空间中选择一组样本,以最大化数据的多样性。我们通过实验证明,MDFT-g 在多个基准领域的各种规模上始终优于现有的基准。