Aug, 2024

机器去学习的验证是脆弱的

TL;DR本研究针对机器学习中的隐私问题,探讨了数据所有者如何通过机器去学习从模型中移除数据。研究发现当前的验证策略存在脆弱性,模型提供者可绕过这些策略继续保留原数据的信息,从而揭示了机器去学习验证的潜在风险与局限性,为未来相关研究指明了方向。