本文提出了一种方法,利用大型预训练模型和多样的现有语料库,解决低资源抽象摘要化问题,在各种写作风格和形式的摘要语料库上实验证明,我们的方法仅使用 0.7%的可训练参数与以前的工作相比,在低资源情况下实现了 6 个语料库的最新技术水平。
Feb, 2021
利用自注意力变换器模型(mBERT, mT5)以及构建新的基准数据集(76.5k 的文章摘要对),在资源有限的语言乌尔都语中,提出了一个自适应低资源摘要方法,能够有效地捕捉低资源语言的上下文信息并取得与英文高资源语言中最先进模型相媲美的评估结果。
Oct, 2023
本研究探讨了在低资源环境下,针对六个不同领域的抽象摘要任务中,利用大规模生成模型进行领域自适应预训练的有效性。实验表明,预训练的有效性与预训练数据与目标任务的相似度相关,同时发现预训练会导致预训练模型的灾难性遗忘,但使用一种遗忘较少的学习方法可以缓解这个问题。此外,结果表明低资源和高资源的差距仍然很大,需要更先进的领域自适应方法来解决抽象摘要任务中的问题。
Mar, 2021
提出使用上下文相关网络和预训练的语言模型来提高抽象文本摘要的生成水平和使用新颖度度量来优化生成的摘要,从而实现比现有方法更高水平的摘要生成。
Aug, 2018
研究了在小规模训练语料的情况下,使用多任务学习进行抽象摘要的效果。通过将四项不同任务(抽取式摘要、语言建模、概念检测和释义检测)单独和结合使用,得出训练多任务模型比训练仅用于抽象摘要的模型效果更好的结论。在全面搜索中,发现某些任务(如释义检测)不仅可以与其他任务结合使用,而且可以使用不同的架构和训练语料,始终对抽象摘要有益。
Sep, 2021
本文提出一种高效的 few-shot 方法来训练与顾客评论相关的摘要模型。该方法利用适配器进行预训练,并在大量未注释的顾客评论和少量人工注释样本上进行微调。实验结果表明,与标准微调相比,自我监督的适配器预训练可以提高摘要质量,减少语法错误和语义错误。
May, 2022
本文探讨如何在低资源情况下,使用深度神经网络等技术进行长篇法律文件的自动摘要,本文提出了一种基于 GPT-2 的算法,基于语言模型的困惑度,识别出最具有表现力的句子,在提取摘要时提供有效支持,并且该方法胜过了全球其他对手的显著度检测基线。
本论文提出了在数据集特定方式下通过对预训练模型进行微调以实现摘要生成的新型通用方法 - WikiTransfer,并使用循环全球翻译的数据扩增和正则化来提高性能,最终在 CNN-DailyMail 数据集上取得了最先进的性能
Oct, 2020
该研究提出了一种基于用户偏好进行交互式自动摘要的方法,通过利用主动学习、偏好学习和强化学习等技术,提高了方法的样本复杂性,并在模拟和真实用户实验中得到了显著的结果提升。
本研究提出了一个新的交互式框架,可通过优化离线数据和一种新型奖励模型,以少量交互式反馈的方式训练摘要模型,提高 ROUGE 得分和采样效率。这个框架在摘要的活动、少量交互式学习和在线学习的场景下均具有优势。
Apr, 2022