文章旨在利用基于 Transformer 的技术提高文章章节摘要的生成效率和质量。
Jan, 2023
本研究旨在通过采用课程学习方法,结合基于 Transformers 模型的自动生成摘要技术,从 Reddit 社交媒体上的心理健康相关帖子中提取性问题,从而提高医生的阅读效率和准确性,为人们提供更及时有效的心理卫生服务。相较于目前已有的模型,本方法在 Rouge 和 Bertscore 评估指标上分别有显著的相对改进。
Feb, 2023
本文提出两个方法以弥补 Transformer-based summarization 模型在内容选择方面表现不佳和训练策略效率不高的缺陷,使得模型可以更好的理解要点,同时引入课程学习的方法提高了训练速度和质量,并用 Reddit TIFU 数据集和其他三个跨领域总结测量我们的模型的有效性,同时进行了人类评估表明所提出的方法在流畅性、信息量和整体质量等质量标准上具有良好的效果。
本文研究使用 Transformer 模型与数据增强技术解决自动评分的问题,通过实验证明其有效性。
Oct, 2022
本文介绍了生物医学机制总结任务,并利用少量手工标注的机制句子,训练了机制句子分类器以过滤大量的生物医学摘要并创建了一个包含 22k 实例的总结数据集。此外,我们还引入了 611k 实例的结论句子生成作为预训练任务,并基准测试了大型生物领域语言模型的性能。我们发现,虽然预训练任务有助于提高性能,但最佳模型仅在 32%的情况下产生可接受的机制输出,这表明该任务在生物医学语言理解和总结方面面临巨大挑战。
May, 2022
本文通过对 mBART 和 BertSumAbs 两种基于预训练 Transformer 模型的微调,在俄语新闻 RIA 和 Lenta 数据集上获得了新的最优结果,其中 BertSumAbs 分别将 ROUGE 提高了 2.9 和 2.0 个百分点。
Jul, 2020
用基于注意力机制的神经网络模型,依据重要性进行采样的方法,生成更优于现有方法的电影评论和争论的摘要。
Jun, 2016
本文研究使用 Transformer 技术来提高自动文本摘要的效率,提出基于检索的方法,可以降低处理整个文档的成本。实验结果表明,相较于基线,该方法的存储占用更少,且保证了文本摘要的可靠性。
Dec, 2022
通过从自然语言反馈中学习,本文提出了一种三步学习算法来通过对其输出的反馈来优化预训练语言模型,以获得人类水平的摘要能力。
Apr, 2022
利用不同基于 Transformer 的模型探索分析德语顾客反馈数据集的效率,进一步分析预训练模型是否使用无标签数据适应特定领域会比现成模型获得更好的结果,实验结果表明,这些预训练模型取得了显著改进,超过了已发表的成绩和以前的模型。