本文对基于预训练语言模型的文本生成方法进行了综述,包括如何编码输入、设计生成模型、以及如何优化预训练语言模型以生成特定性质的文本;同时讨论了应用与存在挑战,总结了有用资源和应用举例,并提出了未来研究方向。
Jan, 2022
本文提出如何将 PLMs 应用到现有应用程序特定的生成基准上,对输入和输出语言等不同维度的 PLMs 在自然语言生成任务方面的优点和局限性进行了深入的实证研究,并分享了在开发新 PLMs 时考虑到的基准生成能力的最佳实践。
Jun, 2023
通过对三种不同方法进行深入评估,即传统的浅层学习、语言模型(LM)微调和多语言模型微调,本文对文本生成的重要性有了显著进展,尤其是在区分人类和机器生成文本方面,结果表明这些方法在性能上存在显著差异,强调了在自然语言处理领域中继续推进的重要性,为未来创造强大且具有高度辨别力的模型铺平了道路。
Nov, 2023
本文研究了两种先前提出的预训练语言模型(PLMs),分析了不同任务自适应预训练策略对图转文本生成中 PLMs 的影响,发现 PLMs BART 和 T5 实现了新的最先进结果,并且任务适应性预训练策略进一步提高了它们的性能。
Jul, 2020
本文从语言单位、结构、训练方法、评估方法和应用等五个方面,介绍了传统语言模型和预训练语言模型,讨论了二者的关系和语言模型在预训练时代的未来发展方向。
Mar, 2023
本文论述了预训练语言模型(PLM)的重要性以及知识增强型预训练语言模型(KE-PLMs)的研究现状,探讨了 KE-PLMs 在各种 NLU 和 NLG 应用中的超越性能以及 KE-PLMs 面临的挑战和未来研究方向。
Oct, 2021
本文主要介绍了预训练模型在自然语言处理领域的应用。首先简要介绍了语言表示学习及其研究进展,然后系统地从四个角度分类现有的预训练模型,接下来介绍如何将预训练模型的知识应用于下游任务,并提出了一些未来研究的潜在方向。该综述旨在成为一个操作性指南,帮助理解、使用和开发各种自然语言处理任务的预训练模型。
Mar, 2020
本文介绍了使用预训练和微调、提示或文本生成方法解决 NLP 任务的大型预训练基于 transformer 的语言模型,以及使用预训练语言模型生成数据进行训练或其他目的的方法,并讨论未来研究的限制和建议方向。
Nov, 2021
本文介绍了近年来自然语言处理中预训练语言模型(PLMs)的最新进展,并为适应目标领域提供了一种有效的方法。考察了 PLMs 的应用问题并提出了域自适应方法的分类方案,包括输入扩充、模型优化和个性化等方法。
Nov, 2022
本文介绍了最近关于预训练语言模型(PLMs)的新进展,重点讨论了大型语言模型的预训练、适应和调整、利用和容量评估四个方面,并讨论了未来研究的问题和方向。