自然语言理解中无需超参数的领域分类连续学习
本文提出基于神经网络的 CoNDA 方法,支持新类别的增量学习,以改进个性化动态信息融入在智能个人数字助手中的领域分类问题,并在现有和增量添加的新领域上实现高准确性和超越对比基准的结果。
May, 2019
本文提出一种基于 EM 框架的领域感知的持续学习方法来应对在增量学习中类分布和域分布的变化问题,使用基于 von Mises-Fisher 混合模型的灵活类表示来捕获类内结构,采用内部平衡和交叉类数据的处理方式来设计双层平衡记忆,并结合蒸馏损失实现更好的稳定性和可塑性权衡。经过大量实验,表明该方法在三个基准数据集上均优于现有方法。
Apr, 2022
本研究探讨了持续预训练作为开发面向特定领域的大型语言模型的一种替代策略,引入了通过领域自适应持续预训练在金融领域上开发的 FinPythia-6.9B,FinPythia 通过金融任务中持续预训练实现了稳定的改进,并进一步探索了简单而有效的数据选择策略,相较于常规的持续预训练方法,我们的数据选择策略在使用仅 10% 的语料库大小和成本时表现更好,在开放领域的标准任务上没有任何退化。本研究提出了一种以成本效益的方式构建面向特定领域的大型语言模型的替代解决方案。
Nov, 2023
这篇论文研究了大型语言模型(LLMs)中不断学习(CL)领域的发展,重点是开发高效和可持续经验的训练策略。通过不断适应域预训练,我们的研究评估了 LLMs 在不同数据环境中的适应性和能力,并引入了一个新的基准来衡量这种适应能力,揭示了关于知识转移和模型大小的若干关键见解。
Feb, 2024
本研究提出了一种名为交叉领域连续学习(CDCL)的新方法,在一个紧凑的卷积网络中结合了跨任务关注机制,实现了对先前任务特征的对齐,并在相关领域之间进行了无监督的交叉领域学习(UDA)。通过使用一种任务内特定的伪标签方法,确保了有标签和无标签样本的准确输入对,从而增强了学习过程。本方法在公开的 UDA 数据集上进行了广泛实验,显示出在交叉领域连续学习挑战上的良好性能。此外,本研究提出了增量思想,为该领域的进展做出了贡献。
Feb, 2024
本文研究了基于任务增量分类的持续学习方法,提出了一种新的框架来确定持续学习者的稳定性与可塑性的权衡, 并通过三个基准测试以及综合实验比较了 11 种持续学习方法和 4 种基线的方法的强弱和影响。
Sep, 2019
我们在这篇文章中提出了一种名为 CLAMP 的跨领域持续学习方法,它集成了一种类感知对抗领域自适应策略,以在复杂变化环境中实现单一模型的部署,避免了额外的标注成本,并且在理论分析和大量实验证明中取得了至少 10% 的显著性优于现有基准算法的效果。
May, 2024
本文提出了 NCDwF (无遗忘新类别发现) 这一新的实际问题,并使用生成拟变量表示、基于互信息的正则化以及已知类别标识符等方法进行了研究,通过基于 CIFAR-10、CIFAR-100 和 ImageNet-1000 的实验验证了其在已有知识保留和新类别发现之间的平衡效果。
Jul, 2022
研究 AI 模型在连续领域适应中所遇到的领域转换和灾难性遗忘等问题,并提出了基于 Gradient Regularized Contrastive Learning 的方法来解决这些问题,实验结果表明该方法在 Digits, DomainNet and Office-Caltech 基准测试中表现优越。
Jul, 2020