Dec, 2023
大规模语言模型微调的分裂与隐私化框架
A Split-and-Privatize Framework for Large Language Model Fine-Tuning
Xicong Shen, Yang Liu, Huiqi Liu, Jue Hong, Bing Duan...
TL;DR该研究论文提出了一种 Split-and-Privatize(SAP)框架,通过调整现有的分割学习架构来减轻 Model-as-a-Service(MaaS)细调中的模型和数据隐私泄露风险,实验证明该框架可以在斯坦福情感树库数据集上提高实证隐私性能 62%,而模型性能仅降低 1%。