Dec, 2023

参数高效调整实现 LLMs 的可扩展个性化:基于缩写扩展的案例研究

TL;DR缩写展开是一种通过限制打字量并使用语言模型建议展开来加快沟通的策略。本文研究了基于之前对话进行个性化的大型语言模型(LLM)建议,以增强预测的相关性,尤其是在用户数据较少(~1000 个样本)的情况下。我们比较缩写输入的 fine-tuning,prompt-tuning 和检索增强生成的扩展文本建议。我们的案例研究针对部署的 80 亿参数 LLM 与一个真实的患有 ALS 病的用户以及电影角色个性化方面的实验表明:(1)在某些场景下可能需要定制化,而 prompt-tuning 对这些场景具有很好的泛化能力;(2)在域内数据(仅有 600 个样本)上的 fine-tuning 仍然显示一些收益,然而(3)检索增强的少样本选择也优于 fine-tuning;(4)参数高效调整可以实现高效和可扩展的个性化。对于 prompt-tuning,我们还发现将学习的 “软提示” 初始化为与用户相关的概念标记比随机初始化能够获得更高的准确性。