领域特定抽象摘要的挑战及其克服方法
本文探讨使用预训练的 Transformer 语言模型来进行文本摘要的实现,提出了基于源嵌入和领域自适应训练的方法,并在三个摘要数据集上进行了测试,并在其中两个数据集上取得了新的最佳表现。结果表明,该方法能够产生更专注的摘要,并且对于更抽象的数据集表现得更加明显。
Jun, 2019
本文研究使用 Transformer 技术来提高自动文本摘要的效率,提出基于检索的方法,可以降低处理整个文档的成本。实验结果表明,相较于基线,该方法的存储占用更少,且保证了文本摘要的可靠性。
Dec, 2022
本文提出了一种方法,利用大型预训练模型和多样的现有语料库,解决低资源抽象摘要化问题,在各种写作风格和形式的摘要语料库上实验证明,我们的方法仅使用 0.7%的可训练参数与以前的工作相比,在低资源情况下实现了 6 个语料库的最新技术水平。
Feb, 2021
本研究探讨了在低资源环境下,针对六个不同领域的抽象摘要任务中,利用大规模生成模型进行领域自适应预训练的有效性。实验表明,预训练的有效性与预训练数据与目标任务的相似度相关,同时发现预训练会导致预训练模型的灾难性遗忘,但使用一种遗忘较少的学习方法可以缓解这个问题。此外,结果表明低资源和高资源的差距仍然很大,需要更先进的领域自适应方法来解决抽象摘要任务中的问题。
Mar, 2021
通过对领域之间的文本进行预训练和微调,我们探索了抽象文本摘要模型在关键词选择任务中的效果,并发现在样本数量有限的情况下,领域间的转移学习可以提高模型性能。
Dec, 2023
本文探讨了利用 Transformer-based 系统概括多领域科学研究论文的问题,并设计了两种不同类型的概述手段,即 LaySumm 和 LongSumm,使用 ROUGE 指标有效评估了本文系统的优越性。
Jan, 2021
通过分析训练数据中的 ` 词汇 ' 对总结任务的具体影响,本文研究细粒度因素对于领域适应性能的影响,并提出将数据集学习难度量化为生成式总结的学习难度,并得出跨域重叠与总结任务的性能增益之间存在近似线性关系的实验结论,从而实现对未知领域数据集模型性能的预测而无需经过训练。
Jun, 2024
本研究评估了德语抽象文本摘要的特定现状,并调查现实情形下为什么有效的抽象文本摘要解决方案在工业界仍然缺失。我们的重点是分析训练资源和公开可用的摘要系统,并发现现有的数据集和系统存在极大的缺陷和评估偏差。此外,我们发现现有的系统经常不能与简单的基准线进行比较,并且忽略了更有效和高效的摘要方法。
Jan, 2023
本文研究了文本摘要技术中的领域转移问题,提出了将领域的定义从类别扩展到数据源,并探讨了四种不同的学习策略以解决领域转移问题,在新测试中呈现出不同的性能特点。
Aug, 2019