Jun, 2024

个性化体裁:通过合作努力实现高效个性化大型语言模型

TL;DR个性化大型语言模型(LLMs)旨在根据个人用户的偏好定制交互、内容和推荐。我们引入了一种名为个性化碎片(Per-Pcs)的框架,该框架允许用户安全地共享和组装个性化的参数高效微调(PEFT)。Per-Pcs 通过选择共享者,将其 PEFT 拆分为碎片,并为每个碎片训练门控模型,从而实现用户根据历史数据选择和组装个性化的 PEFT。这种方法既保护隐私,又能实现细粒度的用户建模,而不会占用过多的存储和计算资源。实验结果表明,Per-Pcs 优于非个性化和 PEFT 检索基线,在六个任务上的性能可与 OPPU 相媲美,并且资源消耗显著降低。进一步的分析突显了 Per-Pcs 在共享者数量和选择策略、碎片共享比例、计算时间和存储空间的可扩展性方面的鲁棒性。Per-Pcs 的模块化促进了安全共享,通过协作努力使 LLM 个性化更加高效、有效和广泛可及。