该论文提出了一种基于贝叶斯推断的遗忘框架(BIF),旨在实现被遗忘权利。BIF 框架提供了遗忘算法,可以从学习模型中删除个别数据的影响,并且理论分析证明了算法的泛化性,实验表明了该方法的可行性。
Jan, 2021
这份论文调查了机器学习中遗忘的多方面本质,从神经科学研究中得出结论,认为遗忘是一种适应性功能而非缺陷,它能增强学习过程,防止过拟合,并与各种机器学习子领域的应用联系,以提高模型性能和增强数据隐私。此外,本文还讨论了将遗忘机制整合到机器学习模型中所面临的当前挑战、未来方向和伦理考虑。
May, 2024
本文介绍了一个新的算子 —— 弱遗忘算子,它是标准遗忘算子的对偶形式,并基于蕴涵和推理对它们进行了表征。此处使用的推理框架同样适用于一阶情况,并包括计算某些特殊情况下的一阶遗忘算子的有用算法。
May, 2023
本文提出使用多任务学习自动获取背景知识的方法,同时探讨是否删除背景知识对于归纳逻辑编程学习器的性能有所提升。实验结果表明,在学习过多于 10,000 个任务后,使用 Forgetgol 方法会优于其他方法。
Nov, 2019
本研究综述了现有的 Answer Set Programming 遗忘操作及其属性,包括其在应用中的选择方法和计算结果的复杂性。
Jul, 2021
知识追踪旨在通过分析学生的历史学习数据并预测其未来学习表现,跟踪学生知识状态的变化。本文提出了一个概念驱动的个性化遗忘知识追踪模型(CPF),该模型整合了知识概念之间的层次关系,并结合学生个性化的认知能力,以解决现有遗忘曲线理论模型只考虑时间间隔引起的遗忘问题。实验证明,CPF 模型比基于遗忘曲线理论的方法在预测学生表现方面表现更好,通过个性化遗忘机制更好地模拟了学生知识状态的变化。
Apr, 2024
在持续学习中,为了在未来的任务中保持良好的知识转移并最小化已学任务的遗忘,必须保留和重复使用知识。本文提出了一些理论上定量和限制遗忘程度的算法,并证明了这些算法在不同模型和算法选择下都适用,同时提供了 Gibbs 后验的界限。我们根据理论提出了一种算法,并通过实证研究证明了我们的方法在正向和反向转移方面的改进。
Jun, 2024
通过对最优线性分类器表现的差异考虑 “表示忘却” 的概念,本研究重新审视了一些标准的连续学习基准,并观察到在没有任何明确控制忘却的情况下,模型表示通常会经历较小的表示忘却,并且有时可以与明确控制忘却的方法相当,尤其是在更长的任务序列中。我们还展示了表示忘却如何推动我们对于连续学习中模型容纳能力和损失函数影响的认识。基于这些结果,我们提出一个简单但是竞争力强的方法是,在构建旧样本的原型时,通过标准的有监督对比学习来不断地学习表示。
Mar, 2022
本文针对深度神经网络中可能被攻击者篡改、包含敏感信息的数据进行了选择性遗忘的研究,提出了一种基于优化方法对遗忘过程进行控制的方法,并通过实验结果验证了其有效性。
Dec, 2020
研究探讨了持续学习算法中前向传递的表现力,并考察了连续学习算法在图像分类领域的表现。结果发现,保留过去信息的表现力更好,同时这种表现力更加多样和可辨识。
Mar, 2023