Nov, 2024
FedDTPT:针对黑箱大语言模型的联邦离散与可转移提示调优
FedDTPT: Federated Discrete and Transferable Prompt Tuning for Black-Box
Large Language Models
TL;DR本研究解决了在集中式数据处理环境中调优大语言模型时存在的隐私泄漏问题,特别关注大语言模型本身的安全性。我们首次提出了一种联邦离散与可转移的提示调优方法FedDTPT,通过无梯度的优化方式和基于语义相似性的注意机制,显著提升了模型的准确性,降低了通信开销,并在黑箱设置下对非独立同分布数据展现了较强的鲁棒性。