- 权重插值的持续学习
该研究提出了一种利用权重融合方法的持续学习新方法,通过在每个新任务之后插值旧模型和新模型的权重,将两个模型合并,以便探索新概念到来后出现的局部最小值。实验结果表明,提出的权重融合方法明显改善了最先进的经验重放算法的性能。
- ACL知识图谱嵌入的反事实推理
通过新任务 CFKGR,本文将知识图嵌入(KGEs)与反事实推理关联起来,通过逻辑规则从知识图推断出合理的变化,建立了相应的基准数据集,并开发了 COULDD 方法来适应假设前提。结果表明,KGEs 可以学习图中的模式,与 COULDD 相 - 在线自适应语言模型与分摊背景的记忆
大型语言模型的在线适应性方案,通过压缩与提取新文档中的信息,并存储在记忆库中,实现知识保留、问答和适应性,以提高效率和性能。
- BOWLL: 一个看似简单的开放世界终身学习器
通过广泛的实证评估,我们强调我们的方法为能够有效地保持知识、有选择地关注信息性数据和加速未来学习的模型应成为未来的标准。
- AAAI平衡连续学习与微调在人类活动识别中的应用
基于可穿戴式设备的人体活动识别是以人为中心的机器学习中的关键任务之一,该研究探索了采用和调整 CaSSLe 和 Kaizen 模型的方案来实现可穿戴式设备的人体活动识别,并研究了不同损失项之间的平衡与知识保留的权衡。
- FusDom: 结合领域内外知识进行持续自监督学习
本文介绍了一种名为 FusDom 的简单而创新的基于自监督学习的连续预训练方法,通过在两个具有修改的预训练头部的相同自监督学习模型之间使用交叉注意机制,实现有弹性且不遗忘过去所见概念的语音表示学习,从而改进了在目标领域的自动语音识别性能。
- 高效持续学习的类适应采样策略
我们提出了一种名为 'Class-Adaptive Sampling Policy'(CASP)的新方法和策略,通过利用类贡献和困难度的概念,动态分配缓冲区内的存储空间,从而显著提高了知识保留和利用的效率,满足了动态缓冲区分配的需求,以适应 - 多模式机器遗忘
Machine Unlearning(机器遗忘)是从已经训练好的模型中删除特定的训练数据样本及其相应的影响,其具有重要的实际价值。本文提出了 MMUL,一种专门设计用于多模态数据和模型的机器遗忘方法,通过关注三个关键性质来制定多模态遗忘任务 - 在线连续知识学习的语言模型
在这篇论文中,我们介绍了一个新的问题,在持续学习领域中称为 “在线持续知识学习(OCKL)”。我们提出了一个新的基准和评估指标,旨在测量新知识获取的速度和先前学到的知识的保留率。通过使用各种最先进的方法进行的实证评估为 OCKL 建立了稳健 - EMNLP给我事实!关于预训练语言模型的事实知识探测调查
对预训练语言模型进行事实知识探测的方法和数据集进行了调研,并提出了一种基于输入、输出和被探测模型适应性的事实探测方法分类方案,综合分析了语言模型中的知识保留和提示优化问题,讨论了采用语言模型作为知识库的障碍和未来研究方向。
- Eva-KELLM: 一个用于评估 LLMs 的知识编辑的新基准
评估大型语言模型的知识编辑能力和知识迁移效果的新基准 Eva-KELLM,采用原始文档进行知识编辑,从多个角度评估其效果,研究发现当前使用原始文档进行知识编辑的方法在处理修改后的知识以及跨语言知识迁移时效果不佳。
- 大型语言模型在连续微调中的灾难性遗忘的实证研究
大型语言模型在不断微调的过程中存在灾难性遗忘现象,尤其随着规模的增加,遗忘的严重程度也加剧,然而通过单独解码器模型 BLOOMZ 与编码器 - 解码器模型 mT0 的比较,发现 BLOOMZ 遗忘较少且保留更多知识,还观察到语言模型能够在不 - ACL预训练视觉语言模型实体知识的表格和图像生成
本文提出了一个基于表格和图像生成的任务来验证自然语言中获取的实体知识如何在视觉和语言模型中得以保留,其包括两部分,一是生成包含有关实体及相关图像的表格,二是基于实体及其知识表生成相关图像。我们使用英文维基百科文章的 170,000 个信息框 - 语言模型的元学习在线适应
通过元学习的方法,提出了一种称为 Context-aware Meta-learned Loss Scaling (CaMeLS) 的在线微调算法,可以显著提高大语言模型对文本知识的保留能力。
- CVPR学会在获取知识的同时保持知识:对抗非对抗数据知识蒸馏中的分布偏移
提出一种数据无关知识蒸馏的框架,称为学会保留和获得,通过元学习的方式将知识获取和保留视为元培训和元测试,并确定知识保留和获得任务之间的隐含对齐因素,从而为这两个任务强制实施共同的梯度方向。
- 交互式强化学习场景下的广泛持久建议
本文提出保留和重复使用提供的知识的方法,允许训练者提供与当前状态不止相关的一般建议。实验结果表明,使用宽持久性建议能够大幅提高代理的性能,同时减少训练所需的交互次数。
- ECCV无遗忘新类别发现
本文提出了 NCDwF (无遗忘新类别发现) 这一新的实际问题,并使用生成拟变量表示、基于互信息的正则化以及已知类别标识符等方法进行了研究,通过基于 CIFAR-10、CIFAR-100 和 ImageNet-1000 的实验验证了其在已有 - SPeCiaL:自监督预训练用于持续学习
本文提出了一种用于无监督预训练的方法 SPeCiaL,旨在为连续学习定制表示。我们的方法通过序列学习过程差异化地制定了元学习目标,从而产生偏向于快速知识保留且遗忘最小化的表示。在连续小样本学习中,我们评估了 SPeCiaL 的性能,并展示它 - ACL有监督的方面提取的终身学习 CRF
本文介绍了有监督的方面提取,展示了如果系统从许多过去的领域中进行方面提取并将结果作为知识保留下来,条件随机场可以以终身学习的方式利用这些知识,在新的领域中提取的效果明显优于传统的不使用先前知识的条件随机场。关键创新在于即使在 CRF 训练之