本研究探讨了预训练语言模型在捕捉篇章关系上的能力,并通过探究任务验证了不同架构和层数的 PLMs 的表现,得出了对于不同 NMT 任务在何种情况下使用不同层的 PLMs 是最好的决策。
May, 2023
本文介绍了使用预训练语言模型进行个性化新闻推荐的方法,通过离线实验结果表明,该方法在英语和全球市场上都取得了显著的点击和页面查看量的提高,关键词包括个性化新闻推荐、文本建模、预训练语言模型、新闻建模和离线实验结果。
Apr, 2021
本文研究 NLP 中使用预训练语言模型(PLM)的结构化预测问题,描述了一种基于 PLMs 的结构建模方法,在命名实体识别、端到端关系提取和指代消解三个任务上实现了最新的最优性能。
Oct, 2022
该研究通过分析基于法律的预训练语言模型的性能,可以得出结论,领域特定的预训练语言模型的开发包括模型的大小和先前的法律知识两个方面。
该论文提出了一种对文本中的实体和关系进行深入理解的新型对比学习框架 ERICA,可显著提高预训练语言模型在低资源环境下的关系提取,实体类型和问题回答等多个语言理解任务的性能表现。
Dec, 2020
本研究首次对预训练语言模型(PLMs)的训练数据抽取问题进行综述,回顾预备知识并提出多种记忆定义的分类,总结攻击和防御方法,详细介绍几项定量研究的实证结果,并在此基础上提出未来的研究方向。
本文介绍了基于话语表示结构的多语言预训练语言含义模型,在预训练阶段包括语义表示,并采用交叉语言迁移学习,以进一步提高非英语任务的性能。实验结果显示,该方法在多语言 DRS 解析和 DRS 到文本生成任务上实现了最佳性能。
本文介绍了近年来自然语言处理中预训练语言模型(PLMs)的最新进展,并为适应目标领域提供了一种有效的方法。考察了 PLMs 的应用问题并提出了域自适应方法的分类方案,包括输入扩充、模型优化和个性化等方法。
Nov, 2022
本篇论文综述了近期预训练语言模型在生物医学领域的研究进展及其在生物医学下游任务中的应用,提出了现有生物医学 PLMs 的分类及其在下游任务中的应用,讨论了其限制与未来发展趋势。
Oct, 2021
本文介绍了利用预训练语言模型 GPT 进行远程监督关系抽取,通过 fine-tuning 在 NYT10 数据集上实现了更多种类关系的高准确率预测,AUC 分数达到了 0.422,并且在高召回率水平下表现尤为出色。
Jun, 2019