近似机器遗忘是否得到适当评估?从审计到副作用
本文研究机器取消学习对隐私的影响,并通过提出新型会员推理攻击来论证了取消学习会留下数据迹象,从而产生意外隐私风险。我们提出了四种方法来减轻这些隐私风险,包括发布预测标签,温度缩放和差分隐私。
May, 2020
本文研究用户信息的删除和机器去学习概念,阐述了目前保证用户隐私的方法以及可能出现的潜在攻击方式,其中特别探讨了有意设计的训练数据能触发完全重新训练的中毒攻击。
Sep, 2021
本文旨在对机器学习模型中“遗忘特定数据”的概念、场景、方法和应用进行综合性探讨,并为研究人员和从业人员提供包括设计标准和算法在内的全面资源,以帮助创新隐私技术和提醒相关研究领域存在的问题。
Sep, 2022
该调查提供了机器遗忘技术的简明评估,概述了准确和近似方法、可疑攻击和验证方法,并比较了每种方法的优点和局限性,评估了它们的性能,突出了挑战性的需求。提供强大的非IID删除模型以缓解公平性问题,并指出该领域未来的研究方向,旨在为寻求在ML系统中提供隐私和平等的研究人员和从业者提供有价值的资源。
May, 2023
机器遗忘是一项关键技术,用于选择性地移除训练数据点对训练模型的影响。本文提供了机器遗忘研究的全面分类和分析,并回顾了最新的解决方案,讨论了其优势和限制,并提出了未来的发展方向,以推动机器遗忘作为一项必要的可信和自适应机器学习能力。
Aug, 2023
机器遗忘方法针对用户隐私保护目标有重要作用,但会带来大量计算成本。我们提出了细粒度 Top-K 和 Random-k 参数扰动的不精确机器遗忘策略,以在保持可计算性开销的同时满足隐私需求。我们还引入了评估机器遗忘效果和模型泛化能力的新指标——遗忘率和记忆保留率。通过实施这些创新技术和指标,我们在不显著牺牲模型性能的前提下实现了高效的隐私保护,并提供了一种评估遗忘程度的新方法。
Jan, 2024
数字个人数据是一项重要的资产,机器遗忘权利要求模型提供者根据用户的请求删除用户数据,机器去学习涉及到中心化和分布式模型下的去学习算法、近似去学习、验证和评估指标、不同应用中的去学习挑战和解决方案、以及针对机器去学习的攻击,期望通过全面调研描绘机器去学习领域的最新进展,并为未来研究提供方向。
Mar, 2024
通过提供深入探讨机器消遣技术的定义、分类和评价标准,以及不同环境下的挑战和解决方案,本文对传统模型和大型语言模型上的消遣进行分类和研究,提出了评估消遣效果和效率的方法以及性能测量标准。本文揭示了当前消遣技术的局限性,并强调了全面的消遣评估的重要性,以避免随意的遗忘。该调查不仅总结了消遣技术的关键概念,还指出了其突出问题和未来研究的可行方向,为该领域的学者提供了有价值的指导。
Apr, 2024
该研究综述了现有的机器去学习方法,系统地分类并讨论了其差异、联系和开放问题,包括集中式去学习、分布式和不规则数据去学习、去学习验证以及隐私和安全问题,并提出了潜在的研究方向。
May, 2024
本研究解决了当前机器忘记领域中对不同训练样本忘记难度评估不足的问题。通过提出新的度量标准和启发式方法,本文探讨了影响机器忘记成功的条件,并建立了样本忘记难度的排名机制。研究结果表明,使用针对特定模型和数据集的核化斯坦因差异性(KSD)作为评估工具,有助于提高机器忘记操作的有效性和可行性。
Oct, 2024