BriefGPT.xyz
Ask
alpha
关键词
memorization risk
搜索结果 - 1
自然语言处理 Fine-tuning 方法中的记忆化
本论文通过成员推断和提取攻击实证研究了不同调参方法(如全模型微调、模型头微调和适配器微调)的记忆化风险,发现微调头部的风险最高,而微调较小的适配器则较不容易受到已知提取攻击的影响。
PDF
2 years ago
Prev
Next