Jul, 2024

不同个性化的协同 LML 构建

TL;DR这篇论文提出了一种新颖的方法,用于将大型语言模型(LLMs)与个人偏好进行匹配,有时被称为个性化人工反馈的强化学习(RLPHF)方法。通过合并多个专门训练在特定偏好维度上的专家 LLMs 的输出,使用黑盒方法在标记级别上生成文本,并通过训练轻量级偏好控制模型(PCM)动态地调整下一个标记的预测权重,从而优化给定的偏好。实证测试表明,该方法与现有的偏好合并技术相匹配甚至超过,提供了一种可扩展的、高效的用于个人化的 LLMs 微调的替代方法。