本研究旨在研究联邦学习(FL)系统中的机器非重学习问题,提出了一种快速数据淘汰方法以保护数据隐私,并在四项真实数据集上进行了测试和分析。
Mar, 2022
本文研究机器取消学习对隐私的影响,并通过提出新型会员推理攻击来论证了取消学习会留下数据迹象,从而产生意外隐私风险。我们提出了四种方法来减轻这些隐私风险,包括发布预测标签,温度缩放和差分隐私。
May, 2020
在本研究中,我们提出了第一个可以证明并高效地消除数据实例并保持公平性的机器遗忘方法。通过理论结果和对真实世界数据集的广泛实验,我们展示了我们的方法在消除数据实例的同时保持公平性的功效。
Jul, 2023
该研究综述了现有的机器去学习方法,系统地分类并讨论了其差异、联系和开放问题,包括集中式去学习、分布式和不规则数据去学习、去学习验证以及隐私和安全问题,并提出了潜在的研究方向。
May, 2024
本論文提出了一個名為 Zero-shot 機器學習的新問題,探討如何從 MOD 交易所中刪除特定集合或類別的數據,介紹一種基於誤差最小化最大化噪音和門控知識傳遞的解決方案,實驗結果在基準視覺數據集上展示了良好的效果。
Jan, 2022
该调查提供了机器遗忘技术的简明评估,概述了准确和近似方法、可疑攻击和验证方法,并比较了每种方法的优点和局限性,评估了它们的性能,突出了挑战性的需求。提供强大的非 IID 删除模型以缓解公平性问题,并指出该领域未来的研究方向,旨在为寻求在 ML 系统中提供隐私和平等的研究人员和从业者提供有价值的资源。
May, 2023
研究论述了文档理解模型在用户文档集合的基础上取得的显著性能,介绍了机器遗忘的新方法,探索了将其应用于文档分类问题以解决隐私问题,并提供了公开可用的代码。
Apr, 2024
本文旨在对机器学习模型中 “遗忘特定数据” 的概念、场景、方法和应用进行综合性探讨,并为研究人员和从业人员提供包括设计标准和算法在内的全面资源,以帮助创新隐私技术和提醒相关研究领域存在的问题。
Sep, 2022
该论文采用基于牛顿迭代方法的投影残差方法,旨在实现线性回归模型和神经网络模型的机器消遗任务。该方法主要使用迭代加权方法,完全忘记数据及其对应的影响,其计算成本与数据特征维度线性相关,并独立于训练集的大小。实验结果表明,该方法较近于模型重新训练,更彻底地删除数据。
机器遗忘是一项关键技术,用于选择性地移除训练数据点对训练模型的影响。本文提供了机器遗忘研究的全面分类和分析,并回顾了最新的解决方案,讨论了其优势和限制,并提出了未来的发展方向,以推动机器遗忘作为一项必要的可信和自适应机器学习能力。
Aug, 2023