- 暗影中的曙光:利用成员推断进行机器去学习
通过创造一种新的损失函数,将目标分类损失和成员推断损失相结合,用于从神经网络中删除敏感信息的机器遗忘机制,本研究通过成员推断机制作为概念验证,提供了实验证据,证明了我们的遗忘方法在遗忘效果、延迟和主要任务准确性方面的优越性。
- 高退训比例下的最小梯度相关性机器反学习
Mini-Unlearning 是一种轻量级、可扩展的方法,通过最小的一部分历史梯度以及收缩映射来有效地实现高比例的 machine unlearning,提高模型准确性并增强对隐私攻击的抵抗力。
- 基于参数高效微调的可扩展精确机器取消学习
S3T 是一个精确的反训练框架,使用轻量级参数高效调整方法,在最小程度影响模型性能的同时增强了精确反训练系统的删除能力,并通过对多个数据序列进行训练来减少重新训练成本和改进模型性能。
- PISTOL: LLMs 结构解学的数据集编译流程
为了推动现有 LLMs 遗忘方法的发展并解决其局限性,本文提出了 PISTOL 管道来编制多场景数据集用于基准测试结构化 LLMs 遗忘,并使用 PISTOL 生成的样本数据集进行了四种不同遗忘方法在 Llama2-7B 和 Mistral - MU-Bench:一个面向机器学习取消任务的多模态多任务基准
为了解决目前机器遗忘研究领域的不一致性和局限性,研究者们开发了 MU-Bench,这是第一个综合性的机器遗忘基准测试,它统一了删除样本和训练模型的集合,并广泛涵盖了任务和数据模态,包括语音和视频分类, evaluation 结果表明,Ran - 关于牛顿法用于取消神经网络的研究
机器去学习的研究,通过开发算法来近似去学习神经网络以增加个人数据拥有权,特别是 `` 被遗忘的权利 ''。研究发现采用改进的三次正则化牛顿法在序列去学习中相比基准方法更具抗性和优越性。
- ACL通过对语言模型中的序列遗忘进行近似优化参数保护隐私
我们提出了一种名为 “POP” 的新型遗忘方法,通过对参数应用最佳梯度更新,从预训练的语言模型中有效地遗忘目标令牌序列,实现隐私保护,具有出色的遗忘后保留性能,优于现有技术水平。
- 有针对性的重学习攻击对未学习的模型进行记忆激活
机器不学习是一种减轻机器学习模型中训练数据不良记忆的有希望的方法。然而,在这项工作中,我们显示出现有的 LLMs 取消学习方法意外地容易受到一组简单有针对性的重新学习攻击的影响。通过仅访问少量可能松散相关的数据集,我们发现可以 “调整” 取 - 文本反学习带来了一种虚假的反学习感知
通过借助先前和后续模型访问,我们提出了文本消除泄漏攻击(TULA),从而证明机器遗忘在语言模型中会扩大知识泄漏的风险,包括黑盒和白盒场景下推断未学习数据的能力增强,以及通过白盒访问直接重构未学习数据的准确性。这项工作首次揭示了语言模型中的机 - 多语言语言模型中选择性知识的跨语言遗忘
本研究论文提出了一种创新的方法,针对多语言语言模型的机器遗忘,通过选择性地擦除不同语言中的信息,同时保持总体性能,有效解决了低资源语言攻击的问题,为安全可适应的多语言语言模型设定了新的标准。
- 基于模型解释的联邦机器遗忘的选择性参数更新
提出了一种基于模型解释的更有效和高效的联邦遗忘方案,通过理解深层网络和个别通道重要性,选择已训练模型中对需要遗忘的数据至关重要的通道,并对这些通道进行微调,以消除这些数据的贡献。实验结果表明该方法的有效性。
- 大型语言模型中的软提示对取消学习的影响
通过在训练数据的子集上实现遗忘的相对较轻量级替代方案,我们的研究框架 SPUL 能够显著改善使用 LLMs 进行文本分类时效用和遗忘之间的平衡。
- 拆分、遗忘、合并:通过数据属性提升 LLM 中的更有效遗忘
大型语言模型 (LLMs) 存在社会和伦理风险,如生成有害语言或促进危险知识的恶意使用。本文提出了 “SPlit, UNlearn, MerGE” (SPUNGE) 框架,可与任何去学习方法结合以增强其效果。我们实验证明,SPUNGE 在现 - 基于关键图的高效目标级机器取消学习方法
机器遗忘是一种新兴技术,主要研究如何使训练模型忘记一些训练数据。本文提出了一种名为 “目标遗忘” 的更有效和高效的遗忘方案,通过构建一个关键参数的关系图数据结构和基于修剪的遗忘方法,实现从模型中删除部分目标的信息。实验结果验证了该方法的有效 - 驱动群体智能的联邦学习大语言模型:调查报告
调查了联邦学习大型语言模型的最新进展,重点关注了机器遗忘这一关键方面,以符合数据隐私和被遗忘权等隐私法规;通过探索各种策略,如扰动技术、模型分解和增量学习等,而无需从头重新训练,实现从联邦学习的大型语言模型中安全有效地删除个别数据贡献,强调 - 一种更实用的机器取消学习方法
机器学习中的模型撤销能够有效解决数据隐私问题,本研究通过实证评估表明首次梯度上升法在机器学习中的撤销过程更为有效,突出了其在提升数据隐私和符合法规(如 GDPR 和 CCPA)方面的潜力。
- 控制中的遗忘:对大型语言模型遗忘的现实应用评估
我们提出了衡量实际效能的一组度量标准,并提出了几种控制方法以规范过多的遗忘。经过在已建立的基准测试上的实验分析,我们得出结论,基于梯度上升的方法在实践中并不完美,强烈的遗忘会以牺牲模型实用性的代价为代价。我们得出结论,朝着实际和有效的大型语 - 机器遗忘中解耦类标签与目标概念
机器遗忘作为一项新兴的数据管理研究课题,旨在调整经过训练的模型以逼近一个排除了训练数据一部分的重新训练模型。我们提出了一般性的框架,即 TARget-aware Forgetting(TARF),通过对遗忘数据进行退火梯度上升和对难以影响的 - GENIU: 一种用于不平衡数据的有限数据访问去学习方法
GENIUn 是第一个在不平衡数据设置和受限数据访问条件下进行类忘记的实用框架,通过使用一个变分自动编码器和批内调整策略,它能够在未来的忘记中保留重要信息。
- 对抗式机器遗忘
该论文提出了一个游戏理论框架,将成员推理攻击(MIAs)与机器遗忘算法的设计整合在一起,从而以对抗性的方式主动地将攻击纳入算法设计中,利用隐式微分限制攻击者的成功,以实现从模型中遗忘特定的训练数据。