有限平行资源下的跨语言抽象摘要
使用混合语言预训练的交叉语言文摘模型,在没有任务特定组件的情况下利用单语数据提高语言建模的效果,实现了高效的跨语言文摘。在 Neural Cross-Lingual Summarization 数据集中,我们的模型在英汉和汉英模式下相比现有技术,分别实现了 2.82 和 1.15 ROUGE-1 分数的提升。
Oct, 2020
本文提出了基于条件变分自编码器的层次模型,用于将一个语言的文档转化为另一个语言的摘要,从而解决了直接进行交叉语言摘要的挑战,实验证明这种方法比现有的方法更为有效和优越。
Mar, 2022
通过提出 Cross-lingual Summarization with Compression rate (CSC) 的创新任务,并通过有效的数据增强方法来产生不同压缩率的文档摘要对,从而提高 Cross-Lingual Summarization 的性能。
Oct, 2021
Transum 是一种多任务学习框架,可以将真实数据及伪造数据结合起来用于神经编码器 - 解码器的训练,达到在汉英和阿拉伯英文摘要、中英、阿拉伯英翻译任务中均获得最佳 ROUGE 分的效果,此外还对机器翻译任务有积极的影响。
Oct, 2020
研究了在小规模训练语料的情况下,使用多任务学习进行抽象摘要的效果。通过将四项不同任务(抽取式摘要、语言建模、概念检测和释义检测)单独和结合使用,得出训练多任务模型比训练仅用于抽象摘要的模型效果更好的结论。在全面搜索中,发现某些任务(如释义检测)不仅可以与其他任务结合使用,而且可以使用不同的架构和训练语料,始终对抽象摘要有益。
Sep, 2021
跨语种摘要生成(XLS)旨在在与源语言文档不同的目标语言中生成摘要。我们研究了各种模型的少样本学习(few-shot learning)在 XLS 任务中的表现,并发现少样本学习显著提高了 LLMs 在低资源环境中的 XLS 性能,特别是 GPT-3.5 和 GPT-4。然而,开源模型 Mistral-7B-Instruct-v0.2 在有限的示例中有效适应 XLS 任务方面存在困难。我们的研究结果突出了少样本学习提高 XLS 性能的潜力,以及在设计专为该任务定制的 LLMs 架构和预训练目标方面需要进一步研究。我们提出了未来的研究方向,探索更有效的少样本学习策略,并调查 LLMs 在跨语种摘要生成中的迁移学习能力。
Jun, 2024
现有的跨语言摘要(CLS)工作往往通过直接翻译预注摘要来构建 CLS 语料库,可能会包含摘要和翻译过程中的错误。为了解决这个问题,我们提出了 ConvSumX,这是一个跨语言对话摘要基准,通过一个新的注释模式明确考虑源输入上下文。ConvSumX 包括两个子任务,涵盖了三个不同的语言方向。我们对 ConvSumX 和三个广泛使用的手动注释的 CLS 语料库进行了详尽的分析,实验证明 ConvSumX 更加忠实于输入文本。此外,基于相同的观点,我们提出了一个 2 步方法,该方法将对话和摘要作为输入以模拟人工注释过程。实验结果表明,2 步方法在 ConvSumX 上超过了强基线模型,并在自动和人工评估下显示出优势。分析表明,源输入文本和摘要对于建模跨语言摘要至关重要。
Jul, 2023