BriefGPT.xyz
大模型
Ask
alpha
关键词
knowledge unlearning
搜索结果 - 3
RWKU:大规模语言模型的真实世界知识遗忘基准测试
机器遗忘是一种有效地通过事后修改模型来消除特定知识的方法,在本文中,我们提出了一个用于大型语言模型(LLMs)遗忘的真实世界知识遗忘基准(RWKU),该基准考虑了任务设置、知识来源和评估框架等关键因素。
PDF
18 days ago
LLM 知识弃除:任务、方法与挑战
近年来,大型语言模型(LLM)在自然语言处理领域引起了一种新的研究范式。然而,这些模型保留错误或甚至有害知识的潜力带来了恶意应用的风险。为了使这些模型能够广泛应用,解决这个问题并将其转化为纯粹的助手是至关重要的。为此,我们提供了一份关于 L
→
PDF
7 months ago
语言模型中知识退化以减少隐私风险
本研究提出知识遗忘(knowledge unlearning)作为一种减少预训练语言模型(pretrained language models)隐私风险的方法,通过对目标标记序列进行梯度上升来遗忘它们,并发现顺序遗忘优于尝试一次性遗忘所有数
→
PDF
2 years ago
Prev
Next