大语言模型与个性化插件 = 个性化大语言模型
通过使用离线总结和运行时检索,我们提出了一种新颖的基于总结的方法,扩展了基于检索的个性化,以实现更好的实时系统性能,并在实际约束下取得了更好的个性化性能。
Oct, 2023
通过个性化参数高效调整的方法(OPPU),将用户个性化模型与非参数化知识相结合,实现个性化推荐和隐私保护。实验结果表明,OPPU在处理用户行为转变、用户活跃水平建模、用户历史记录格式以及不同调整方法方面具有出色的性能。
Feb, 2024
通过引入Persona-DB框架,本文从一个新的角度考虑数据如何更好地表示,以实现对大型语言模型(LLMs)定制过程中更高效的检索,同时在多个实验中展示了Persona-DB在任务上下文中的泛化能力和在冷启动情况下的显著改进。
Feb, 2024
个性化大型语言模型(LLMs)旨在根据个人用户的偏好定制交互、内容和推荐。我们引入了一种名为个性化碎片(Per-Pcs)的框架,该框架允许用户安全地共享和组装个性化的参数高效微调(PEFT)。Per-Pcs通过选择共享者,将其PEFT拆分为碎片,并为每个碎片训练门控模型,从而实现用户根据历史数据选择和组装个性化的PEFT。这种方法既保护隐私,又能实现细粒度的用户建模,而不会占用过多的存储和计算资源。实验结果表明,Per-Pcs优于非个性化和PEFT检索基线,在六个任务上的性能可与OPPU相媲美,并且资源消耗显著降低。进一步的分析突显了Per-Pcs在共享者数量和选择策略、碎片共享比例、计算时间和存储空间的可扩展性方面的鲁棒性。Per-Pcs的模块化促进了安全共享,通过协作努力使LLM个性化更加高效、有效和广泛可及。
Jun, 2024
利用用户配置文件个性化大型语言模型(LLM)已被证明可以提高各种任务的性能,本研究确认了用户配置文件的有效性主要是由于个性化信息而非语义信息,还发现用户配置文件中的历史个性化响应在个性化LLM中起着关键作用,用户配置文件在输入上下文的不同位置对个性化没有相等的贡献,更接近开头的用户配置文件对LLM的个性化影响更大。研究结果揭示了用户配置文件对LLM个性化的作用,并展示了如何有效利用用户配置文件来提高性能。
Jun, 2024
这篇论文提出了一种新颖的方法,用于将大型语言模型(LLMs)与个人偏好进行匹配,有时被称为个性化人工反馈的强化学习(RLPHF)方法。通过合并多个专门训练在特定偏好维度上的专家LLMs的输出,使用黑盒方法在标记级别上生成文本,并通过训练轻量级偏好控制模型(PCM)动态地调整下一个标记的预测权重,从而优化给定的偏好。实证测试表明,该方法与现有的偏好合并技术相匹配甚至超过,提供了一种可扩展的、高效的用于个人化的LLMs微调的替代方法。
Jul, 2024
本研究针对个性化大型语言模型(LLMs)中隐私保护方法的不足,系统比较了基于检索增强(RAG)和参数高效微调(PEFT)的两种策略。研究结果显示,RAG方法在冷启动用户中表现更优,同时结合两者的应用使性能提升达到15.98%,展示了在个性化任务中优化用户体验的潜力。
Sep, 2024