领域适应效应对神经抽象摘要的试点研究
本研究探讨了在低资源环境下,针对六个不同领域的抽象摘要任务中,利用大规模生成模型进行领域自适应预训练的有效性。实验表明,预训练的有效性与预训练数据与目标任务的相似度相关,同时发现预训练会导致预训练模型的灾难性遗忘,但使用一种遗忘较少的学习方法可以缓解这个问题。此外,结果表明低资源和高资源的差距仍然很大,需要更先进的领域自适应方法来解决抽象摘要任务中的问题。
Mar, 2021
本文研究了文本摘要技术中的领域转移问题,提出了将领域的定义从类别扩展到数据源,并探讨了四种不同的学习策略以解决领域转移问题,在新测试中呈现出不同的性能特点。
Aug, 2019
本文探讨使用预训练的 Transformer 语言模型来进行文本摘要的实现,提出了基于源嵌入和领域自适应训练的方法,并在三个摘要数据集上进行了测试,并在其中两个数据集上取得了新的最佳表现。结果表明,该方法能够产生更专注的摘要,并且对于更抽象的数据集表现得更加明显。
Jun, 2019
本文提出了一种方法,利用大型预训练模型和多样的现有语料库,解决低资源抽象摘要化问题,在各种写作风格和形式的摘要语料库上实验证明,我们的方法仅使用 0.7%的可训练参数与以前的工作相比,在低资源情况下实现了 6 个语料库的最新技术水平。
Feb, 2021
该论文通过域转移和数据综合的方法,研究了当应用于学生反思材料等小型文集时,如何提高最近的抽象摘要方法的性能,得到了更高的 ROUGE 分数。
Feb, 2020
通过分析训练数据中的 ` 词汇 ' 对总结任务的具体影响,本文研究细粒度因素对于领域适应性能的影响,并提出将数据集学习难度量化为生成式总结的学习难度,并得出跨域重叠与总结任务的性能增益之间存在近似线性关系的实验结论,从而实现对未知领域数据集模型性能的预测而无需经过训练。
Jun, 2024
在新闻、个人故事、会议和医学文章等领域,我们使用深度学习模型进行摘要实验,以了解如何进行内容选择。我们发现,许多最先进的抽取式摘要生成器的先进功能并不能提高性能。这些结果表明,为新领域创建摘要生成器比先前的工作所建议的要容易,并质疑深度学习模型在摘要生成方面为那些具有大规模数据集(即新闻领域)的领域带来的好处。与此同时,他们提出了新的摘要研究的重要问题;换句话说,需要更适合摘要任务的新型句子表示或外部知识源。
Oct, 2018
本文通过跨数据集设置,对 11 种代表性的文本摘要模型在不同领域的 5 个数据集上的性能进行了深入分析,揭示了模型的架构和生成方式(抽象和抽取),以及预训练的嵌入式知识对模型泛化能力的影响。
Oct, 2020
探讨了语言模型适应与机器学习理论的关系,研究了大型领域外训练集和小型领域内训练集之间的训练方法的优劣,提出了领域外预训练加上领域内微调比单独应用更为通用,并提出了基于数据选择的适应技术的公共框架。
Sep, 2021
生物医学摘要需要大规模数据集以训练文本生成。通过我们的研究,我们发现,虽然迁移学习是解决这一挑战的一个可行选择,但在一个 BioASQ 摘要任务中,域内预训练并不总是带来优势。我们确定了一种适合的模型架构,并使用它展示了一个通用领域预训练,并在 BioASQ 摘要任务的背景下进行任务特定的微调的好处,从而实现了一种新的三步微调方法,只需使用一千个域内示例即可。我们的结果表明,在某些特定领域的生物医学文本生成任务中,没有进行领域特定预训练的大规模语言模型可能具有明显优势。
Jul, 2023