May, 2022

自然语言处理 Fine-tuning 方法中的记忆化

TL;DR本论文通过成员推断和提取攻击实证研究了不同调参方法(如全模型微调、模型头微调和适配器微调)的记忆化风险,发现微调头部的风险最高,而微调较小的适配器则较不容易受到已知提取攻击的影响。