多模态推荐去学习
Machine Unlearning(机器遗忘)是从已经训练好的模型中删除特定的训练数据样本及其相应的影响,其具有重要的实际价值。本文提出了 MMUL,一种专门设计用于多模态数据和模型的机器遗忘方法,通过关注三个关键性质来制定多模态遗忘任务:(a)解耦模态,(b)保留单模态知识,(c)保留多模态知识。实验证明,MMUL 在区分已删除和剩余数据方面优于现有的基线方法,并且在遗忘后能够大部分保持原始模型的预先存在的知识。
Nov, 2023
本论文提出了 RecEraser,一种针对推荐任务的通用,高效的机器遗忘框架,该框架将培训集分为多个分片,并为每个分片训练一个组成模型。通过三种新颖的数据分区算法将培训数据分成基于它们相似性的平衡组,然后提出一种自适应聚合方法来提高全局模型效用,实验结果表明,RecEraser 不仅可以实现高效的遗忘,而且在模型效用方面也优于最先进的遗忘方法。
Jan, 2022
我们提出了 SRU,这是一个基于会话的推荐系统的遗忘框架,它能够实现高效的遗忘、准确的推荐性能和改善基于会话的推荐中的遗忘效果。我们通过将训练会话分成不同的子模型,并利用基于注意力的聚合层来融合隐藏状态,提出了三种额外数据删除策略,并提出了一个评估指标来验证删除数据后是否可以推断出遗忘样本。我们在三个基准数据集上实现了 SRU,并进行了实验,实验结果证明了我们方法的有效性。
Dec, 2023
通过混合模态反馈实现端到端训练的信息转移神经网络,从而实现基于原始特征的推荐系统,并在四种不同的真实世界推荐设置中评估了其传递能力,为实现通用的推荐系统提供了一种有前途的方法。
Jun, 2022
为了解决目前机器遗忘研究领域的不一致性和局限性,研究者们开发了 MU-Bench,这是第一个综合性的机器遗忘基准测试,它统一了删除样本和训练模型的集合,并广泛涵盖了任务和数据模态,包括语音和视频分类, evaluation 结果表明,RandLabel 和 SalUn 是 MU-Bench 上最有效的一般机器遗忘方法,而 BadT 和 SCRUB 能够在删除集合上达到随机性能,此外,研究还分析了一些尚未完全研究的机器遗忘方面,包括可扩展性,参数高效微调和课程学习的影响,以及对数据集偏差的敏感性,MU-Bench 提供了易于使用的工具包,包含了数据集划分,模型和实现,以及一个排行榜,以促进统一和可扩展的机器遗忘研究。
Jun, 2024
该论文通过研究机器忘记(MUL)在推荐系统中的应用,讨论了适应性、个性化、隐私和偏见等挑战,并提出了类似传统模型的 MUL 通过根据用户偏好和伦理考量动态调整系统知识的方法。论文批判性地审查了 MUL 的基础知识、实际应用和算法透明度等挑战,并提供了关于 MUL 如何改变推荐、讨论用户信任以及未来研究方向的见解。该文档引导研究人员克服个性化与隐私之间的权衡挑战,鼓励提供满足有针对性的数据删除实际需求的贡献。同时,强调了 MUL 在安全和适应性机器学习中的作用,并提出了推动其发展边界的方法。该论文的创新之处在于对这些方法的局限性进行了探索,为推进该领域的发展提供了激动人心的前景。
Jan, 2024
推荐系统是为用户提供个性化服务的重要工具,但庞大的用户数据收集引发了隐私(如敏感数据)、安全(如恶意数据)和效用(如有害数据)方面的担忧。本文提出了一种相互作用和映射矩阵修正(IMCorrect)方法用于推荐系统去学习,通过修正相互作用矩阵和映射矩阵来提高完整性和效用,且无需昂贵的模型重训练。IMCorrect 是一种白盒模型,具有处理各种推荐系统去学习场景的灵活性,同时具备从新数据中逐步学习的独特能力,进一步增强其实用性。综合实验验证了 IMCorrect 的有效性,结果表明其在完整性、效用性和效率性方面优于其他方法,并适用于多种推荐系统去学习场景。
Jul, 2023
通过建立大规模多模态语言模型(Multimodal Large Language Models)的遗忘模型,研究了 “机器遗忘”(Machine unlearning)中的视觉数据遗忘问题,提出了一种高效的方法 Single Image Unlearning(SIU),通过对单个相关图像进行微调,实现对概念的可视化识别的遗忘。实验证明 SIU 显著优于现有方法,并能够避免入侵式成员推断攻击和越狱攻击。
May, 2024