本文旨在对机器学习模型中 “遗忘特定数据” 的概念、场景、方法和应用进行综合性探讨,并为研究人员和从业人员提供包括设计标准和算法在内的全面资源,以帮助创新隐私技术和提醒相关研究领域存在的问题。
Sep, 2022
该调查提供了机器遗忘技术的简明评估,概述了准确和近似方法、可疑攻击和验证方法,并比较了每种方法的优点和局限性,评估了它们的性能,突出了挑战性的需求。提供强大的非 IID 删除模型以缓解公平性问题,并指出该领域未来的研究方向,旨在为寻求在 ML 系统中提供隐私和平等的研究人员和从业者提供有价值的资源。
May, 2023
通过创造一种新的损失函数,将目标分类损失和成员推断损失相结合,用于从神经网络中删除敏感信息的机器遗忘机制,本研究通过成员推断机制作为概念验证,提供了实验证据,证明了我们的遗忘方法在遗忘效果、延迟和主要任务准确性方面的优越性。
Jul, 2024
该研究论文详细介绍了新颁布的 GDPR 法对机器学习模型隐私保护的重要性,针对深度神经网络模型容易遭受信息泄漏攻击的问题提出了 Unlearning 和 Amnesiac Unlearning 两种数据删除方法,实验证明这两种方法可行、安全。
Oct, 2020
本論文提出了一個名為 Zero-shot 機器學習的新問題,探討如何從 MOD 交易所中刪除特定集合或類別的數據,介紹一種基於誤差最小化最大化噪音和門控知識傳遞的解決方案,實驗結果在基準視覺數據集上展示了良好的效果。
Jan, 2022
数字个人数据是一项重要的资产,机器遗忘权利要求模型提供者根据用户的请求删除用户数据,机器去学习涉及到中心化和分布式模型下的去学习算法、近似去学习、验证和评估指标、不同应用中的去学习挑战和解决方案、以及针对机器去学习的攻击,期望通过全面调研描绘机器去学习领域的最新进展,并为未来研究提供方向。
Mar, 2024
本研究旨在研究联邦学习(FL)系统中的机器非重学习问题,提出了一种快速数据淘汰方法以保护数据隐私,并在四项真实数据集上进行了测试和分析。
Mar, 2022
研究论述了文档理解模型在用户文档集合的基础上取得的显著性能,介绍了机器遗忘的新方法,探索了将其应用于文档分类问题以解决隐私问题,并提供了公开可用的代码。
Apr, 2024
该研究综述了现有的机器去学习方法,系统地分类并讨论了其差异、联系和开放问题,包括集中式去学习、分布式和不规则数据去学习、去学习验证以及隐私和安全问题,并提出了潜在的研究方向。
May, 2024
机器学习模型存在安全漏洞,包括泄漏关于模型的训练数据的攻击。该研究探讨如何在隐私保护问题中有效应对数据删除需求,通过有效更新已训练模型的机器遗忘算法,以维持模型性能,避免重新训练模型的代价。本文提出了替代性的算法评估方法,通过针对图像识别数据集的实验,对当前机器遗忘算法进行更详细的评估,展示了该领域的最新状况。