Feb, 2024

PANORAMIA: 无需重新训练的机器学习模型隐私审计

TL;DR我们介绍了一种针对机器学习模型的隐私审计方案,该方案利用生成的数据作为 “非成员” 进行成员推断攻击,量化了大规模机器学习模型的隐私泄露情况,无需控制训练过程或模型重新训练,只需访问一部分训练数据。为了证明其适用性,我们在多个机器学习领域进行了审计方案评估,涵盖图像和表格数据分类到大规模语言模型。