朝着自然语言领域的连续建模
本文提出基于神经网络的 CoNDA 方法,支持新类别的增量学习,以改进个性化动态信息融入在智能个人数字助手中的领域分类问题,并在现有和增量添加的新领域上实现高准确性和超越对比基准的结果。
May, 2019
本研究提出了一种新的方法,使用一系列未标记的领域语料库来连续培训语言模型,从而改善它们的最终任务绩效。该方法的关键创新点是一种软掩蔽机制,它直接控制语言模型的更新,同时提供了一个新的代理来保留原始 LM 中的通用知识。实证评估证明了所提方法的有效性。
Feb, 2023
研究 AI 模型在连续领域适应中所遇到的领域转换和灾难性遗忘等问题,并提出了基于 Gradient Regularized Contrastive Learning 的方法来解决这些问题,实验结果表明该方法在 Digits, DomainNet and Office-Caltech 基准测试中表现优越。
Jul, 2020
本研究提供了一种训练多领域、基于递归神经网络的语言生成器的程序,包含了多个适应步骤,并利用伪造数据和领域内句子的优化目标函数,旨在在新的、看不见的领域内显著减少培训的数据需求,其语料库评估结果和主观测试都表示该程序可以在保证 BLEU 分数和槽误差率竞争力的同时大幅提高语言生成器性能。
Mar, 2016
这篇论文研究了大型语言模型(LLMs)中不断学习(CL)领域的发展,重点是开发高效和可持续经验的训练策略。通过不断适应域预训练,我们的研究评估了 LLMs 在不同数据环境中的适应性和能力,并引入了一个新的基准来衡量这种适应能力,揭示了关于知识转移和模型大小的若干关键见解。
Feb, 2024
本文提出了连续域自适应(CDA)问题,并提出了一种新颖的方法作为 CDA 基线。该方法通过交替训练策略、连续性约束和域特定队列等手段,在多个域之间降低差异性并泛化到未见目标域,从而在 CDA 问题中实现了最优性能。
Aug, 2022
本文提出了一个能够让我们通过时间添加新的领域和功能而不需要付出整个系统重新训练的任务导向对话系统的连续学习基准。我们在四个不同的设置下连续地学习了 37 个领域,包括意图识别、状态跟踪、自然语言生成和端到端。此外,我们实现并比较了多个已有的持续学习基线,并提出了一种简单而有效的基于残余适配器的结构方法。我们的实验证明,所提出的结构方法和简单的回放策略表现相当好,但是它们都比多任务学习基线表现差,后者将所有数据一次性展示出来,这表明对话系统的连续学习是一项具有挑战性的任务。此外,我们还揭示了在参数使用和内存大小方面不同连续学习方法之间的几个权衡,这对任务导向对话系统的设计非常重要。我们还发布了所提出的基准测试以及几个基线,以推动更多的研究方向。
Dec, 2020
本文介绍了一种基于最新的神经网络连续学习技术的领域无关的神经对话模型,同时提出了一种新颖的神经连续学习算法,能够以数据 - 效率的方式跨越不同任务积累技能,在客户支持领域通过从合成对话或人类之间的对话到人 - 计算机对话的连续技能转移来验证方法的功效。
Dec, 2017
该研究讨论了在医疗应用中跨越不同年龄阶段对于疾病分析和预测的持续化索引的域自适应问题。论文提出了一种新方法,结合传统的对抗性适应和一个能建模编码条件下的域索引分布的判别器,将域索引使用于连续范围的域自适应。实验结果表明,该方法在合成和现实世界的医学数据集上的表现优于其他领先的自适应方法。
Jul, 2020