本文使用七种预训练语言模型,运用七种篇章探测任务,将研究重点从句子级别上升到文档级别上,最终发现 BART 是捕获篇章信息能力最好的模型,但只有其编码器部分表现最佳,BERT 作为基准模型也出奇地表现良好,并且不同层次的模型对篇章信息的刻画效果,以及模型之间的差距巨大。
Apr, 2021
本文介绍了基于话语表示结构的多语言预训练语言含义模型,在预训练阶段包括语义表示,并采用交叉语言迁移学习,以进一步提高非英语任务的性能。实验结果显示,该方法在多语言 DRS 解析和 DRS 到文本生成任务上实现了最佳性能。
May, 2023
本文研究基于 Pre-trained Language Models (PLMs) 的注意力矩阵构建对话结构的方法,提出了一种无监督和半监督的方法来定位和利用 PLMs 中的语篇信息,并在 STAC 语料库上获得了令人鼓舞的结果。
Feb, 2023
本文论述了预训练语言模型(PLM)的重要性以及知识增强型预训练语言模型(KE-PLMs)的研究现状,探讨了 KE-PLMs 在各种 NLU 和 NLG 应用中的超越性能以及 KE-PLMs 面临的挑战和未来研究方向。
Oct, 2021
本文研究利用 Chat-GPT 建立的大型语言模型在文档级机器翻译中的应用,通过评估话语建模的能力,比较它与商业翻译系统和高级文档级机器翻译方法的性能,发现 Chat-GPT 在人类评估方面表现优异,同时揭示了话语建模的挑战和机遇。
Apr, 2023
调查预训练语言模型对恶意言论检测性能的影响,比较不同的预训练模型,评估其鲁棒性及微调设置,并探究预训练数据收集时间的影响。分析结果显示预训练阶段对后期任务有早期的峰值,使用最新的预训练语料库的效益有限,微调阶段会受特定层的影响。对于恶意言论检测,领域特定模型的使用被质疑,并强调需要动态数据集进行评估比较。
Feb, 2024
本文提出使用主动遗忘机制作为预训练过程中的一种简单方法,以创建能够快速适应新语言的 PLMs。实验证明,与标准模型相比,在资源匮乏的情况下,使用遗忘机制的预先训练模型不仅在语言适应过程中表现出更快的收敛速度,而且在特别是对于与英语不同的语言来说表现更佳。
Jul, 2023
本文研究了两种先前提出的预训练语言模型(PLMs),分析了不同任务自适应预训练策略对图转文本生成中 PLMs 的影响,发现 PLMs BART 和 T5 实现了新的最先进结果,并且任务适应性预训练策略进一步提高了它们的性能。
Jul, 2020
本文利用分类法阐述了如何将外部知识融入预训练语言模型(PLMs)中解决其因缺乏外部知识而导致的推理能力不足问题,以及 KE-PLMs 在 NLU 和 NLG 任务中的应用和未来发展方向。
Nov, 2022
在理解预训练语言模型对话建模能力方面,我们提出了一种句子入侵检测任务,并在英语方面检查了一系列预训练 LM 的性能。我们通过构建包含英语维基百科和 CNN 新闻文章的 170,000 + 文档的新型入侵句子检测数据集 INSteD,显示预训练 LM 在域内评估中表现出色,但在跨域设置中经验了大幅下降,表明其对跨域推广的能力有限。进一步的,在一个新的语言探测数据集上的结果表明,在跨域设置中有很大的改进空间。
Mar, 2021