ERNIE-GEN: 自然语言生成的增强多流程预训练和微调框架
提出一种名为 ERNIE 2.0 的持续预训练框架,通过不断的多任务学习构建和学习预训练任务,以从训练语料库中提取词汇、句法和语义信息。实验结果表明,在包括 GLUE 基准测试中的 16 个任务(包括英文任务和中文中的几个常见任务)中,ERNIE 2.0 的表现优于 BERT 和 XLNet。已经在 https://github.com/PaddlePaddle/ERNIE 发布了源代码和预训练模型。
Jul, 2019
提出了一种统一的框架 ERNIE 3.0,用于预训练大规模知识增强模型,利用自回归网络和自编码网络相结合的方法来让训练好的模型适用于自然语言理解和生成任务,结果表明,该模型在 54 个中文 NLP 任务上优于现有技术,英文版本超越人类表现 + 0.8%。
Jul, 2021
本文介绍了一种面向多语言自然语言和编程语言的语言模型 ERNIE-Code,提供了通用跨语言预训练的两种方法,取得了很好的性能表现,包括零样本提示的跨语言代码摘要和文本翻译。
Dec, 2022
该论文提出 ERNIE-Gram,一种显式 n-gram 屏蔽方法,可以将粗粒度的语言信息有效地融入预训练中,通过在 19 个后续任务上的实验结果表明,ERNIE-Gram 可以大幅优于先前的预训练模型,也可以与最先进的方法相媲美。
Oct, 2020
该研究提出了 ERNIE 3.0 Titan 模型,它是目前最大的中文密集预训练模型,其使用预训练语言模型取得了在 68 个自然语言处理任务上的最佳性能。
Dec, 2021
本文提出了基于 Transformer 模型的统一生成预训练框架 - ERNIE-ViLG,旨在处理双向图像 - 文本生成任务,采用图像量化模型并将图像生成和文本生成条件建模为自回归的生成任务,通过双向图像 - 文本生成建模易于实现语义对齐。在大规模数据集上进行训练,取得了针对文本 - 图像合成和图像描述任务的最佳表现。
Dec, 2021
提出了 ERINIE-Layout,一种新颖的以布局知识增强的文档预训练解决方案,通过整个工作流程来学习将文本、布局和图像特征结合起来的更好表现,以及如何在文档中学习适当的阅读顺序。实验结果表明,ERNIE-Layout 在各种下游任务上取得了卓越的性能,成为关键信息提取、文档图像分类和文档问答数据集的新的最先进技术,且代码和模型公开。
Oct, 2022
ERNIE 是一种新颖的语言表示模型,通过知识集成增强,它设计了基于实体级屏蔽和短语级屏蔽的屏蔽策略,实验结果证明,ERNIE 在自然语言推理、语义相似性、命名实体识别、情感分析和问答等五个中文自然语言处理任务上均取得了新的最佳表现。
Apr, 2019
本文提出了 ERNIE,使用大规模的文本语料库和知识图谱(KGs)同时训练,利用 KGs 中的外部知识来增强语言表征,实验证明在不同知识驱动任务上 ERNIE 显著提高性能,同时在其他常见 NLP 任务上与 BERT 的性能相当。
May, 2019
本研究提出了 ERNIE-M 模型,采用反向翻译技术产生伪平行语料,从而增强跨语言模型的语义建模能力,并经过实验证明,相对现有跨语言模型,ERNIE-M 能够更好地适用于跨语言任务。
Dec, 2020