KGA: 基于知识差距对齐的通用机器去学习框架
提出了一种高效的取消学习框架,通过引入轻量级的取消学习层并与transformers结合,可以在不对整个模型重新训练的情况下有效地更新大型语言模型,以解决用户数据隐私与数据保护法规的问题。实验证明,与现有技术相比,我们提出的方法在分类和生成任务上的有效性得到了验证。
Oct, 2023
通过对预训练大语言模型的机器遗忘进行综合研究,我们探讨了‘被遗忘权’的概念,重点关注了尚未充分研究的预训练模型领域。通过对来自arXiv、书籍和GitHub的精选数据集进行严格评估,我们建立了机器遗忘性能的鲁棒基准,并证明这些方法的计算效率比重新训练高出10^5倍。我们的研究结果表明,在分布数据上将梯度上升与梯度下降相结合可以提高超参数的稳健性。此外,我们还提供了高效超参数调整的详细指南。我们的发现推动了关于道德AI实践的讨论,为预训练大语言模型的机器遗忘机制提供了实质性的见解,并强调了负责任的AI发展的潜力。
Feb, 2024
机器遗忘(MU)是一个重要问题,旨在消除特定数据对模型性能的影响,同时保持模型的实用性。通过从对抗角度进行最坏情况遗忘子集的识别,我们提出了一种新的MU评估方法,通过双层优化原则在上层优化级别放大遗忘挑战,在下层进行标准训练和遗忘,实现数据影响擦除和模型实用性之间的平衡。我们的研究揭示了MU在实践中的复杂挑战,指导未来更准确、更鲁棒的遗忘算法的发展。
Mar, 2024
通过提供深入探讨机器消遣技术的定义、分类和评价标准,以及不同环境下的挑战和解决方案,本文对传统模型和大型语言模型上的消遣进行分类和研究,提出了评估消遣效果和效率的方法以及性能测量标准。本文揭示了当前消遣技术的局限性,并强调了全面的消遣评估的重要性,以避免随意的遗忘。该调查不仅总结了消遣技术的关键概念,还指出了其突出问题和未来研究的可行方向,为该领域的学者提供了有价值的指导。
Apr, 2024
数字遗忘的目标是,通过给定具有不良知识或行为的模型,获得一个新模型,其中不再存在检测到的问题。在大语言模型中,数字遗忘的方法是取消学习方法中目标任务与数据,以达到保护隐私和防止不良内容生成的目的。
Apr, 2024
通过新的度量衡、对抗攻击以及基于梯度上升和任务算术的两种新的遗忘方法,本研究提供了关于LLMs隐私保护和遗忘的新视角,并在大量NLP任务上进行了全面的性能评估。
May, 2024
通过介绍一种新的遗忘框架Unlearning from Logit Difference(ULD),该方法通过计算目标模型与助理模型之间的逻辑差异来实现忘记目标文档和保留其他知识的目标,从而解决了LLM遗忘方法中的两个挑战问题(退化输出和灾难性遗忘),大幅提高了训练效率。
Jun, 2024
机器遗忘是一种有效地通过事后修改模型来消除特定知识的方法,在本文中,我们提出了一个用于大型语言模型(LLMs)遗忘的真实世界知识遗忘基准(RWKU),该基准考虑了任务设置、知识来源和评估框架等关键因素。
Jun, 2024
LLM上的大型语言模型锤炼了丰富的文献,不可避免地保留了敏感数据,如个人隐私信息和受版权保护的材料。本研究旨在评估目前的去学习过程是否会无意中抹掉重要的知识,并提出了一种名为MemFlex的简单而有效的方法,该方法利用梯度信息来精确地针对和去学习敏感参数。实验证明MemFlex在LLM的精确知识去学习和一般知识保留方面优于现有方法。
Jul, 2024
利用MUSE标准来综合评估了八个七十亿参数的语言模型在删除哈利·波特书籍和新闻文章的过程中,发现现有的算法在阻止严重的隐私泄露方面有限,对模型的技术功用造成退化,并且不能持续支持连续的取消学习请求或大规模内容删除。
Jul, 2024