BERT 词汇扩展与知识库构建
我们提出了一种新的预训练模型,利用基于维基百科的知识图谱实现了在实体和关系上的双重表示,以及利用跨度模块进行有效编码,相较于现有模型使用更少的参数。实验结果表明,相比 RoBERTa 模型,我们模型在信息抽取任务上表现更好,尤其在监督学习任务中达到了很高的竞争水平。
Aug, 2022
翻译 TREx 和 GoogleRE 两项基准测试为 53 种语言,使用 mBERT 模型研究其作为多语言知识库的性能及影响因素,发现其性能因被查询的语言而异,同时使用多种语言的预测结果可提高性能。
Feb, 2021
提出了一种用多个知识库来加强大型模型表示的方法,每个知识库都通过一个集成实体链接器来检索相关实体嵌入,然后通过单词与实体关注的形式更新上下文单词表示,经实验发现知识增强的 BERT 模型具有更好的性能,且运行时间与 BERT 相当。
Sep, 2019
描述一个知识图谱填充系统,通过特定任务的预训练提高被屏蔽对象令牌的 LM 表示,分步生成候选对象的提示分解等方法提供高质量的检索。该系统赢得了 ISWC 2022 举办的 LM-KBC 挑战赛的赛道 1,并在 BERT LM 上实现了 55.0%的 F-1 得分。
Aug, 2022
本文通过在预训练中引入实体信号,将知识意识融入到语言模型的预训练中,无需改变 transformer 体系结构、插入显式知识层或添加语义信息外部存储。实验证明,仅通过添加这些实体信号进行预训练,可以在 transformer 参数中装载更多的知识,从而提高语言建模精度,并在 LAMA 知识探测任务中获得事实的正确性,利用边界分析显示出隐藏表示中的语义,同时表明我们的知识感知语言模型(KALM)可以作为一个可抛弃替换 GPT-2 模型,显著提高了零 - shot 问题回答等下游任务的表现。
Jun, 2020
本文提出了中文知识增强的预训练语言模型 CKBERT,其中包括语言感知的掩模语言模型和对比多跳关系模型等预训练任务。通过实验对比发现,CKBERT 在各种基准 NLP 任务和不同模型尺寸方面均优于强负载。
Oct, 2022
本文研究如何训练针对文本文档中关键短语的任务特定语言模型,通过使用不同的掩码策略在区分性和生成性环境下对预训练变压器语言模型进行实验,并提出新的预训练目标 - 关键短语边界填充替换(KBIR),用于关键短语提取,与现有最佳方法相比,能够提高 8.16 个 F1 分数;此外,还提出了适用于 BART 的新的预训练设置 - KeyBART,能够在 CatSeq 格式中重现与输入文本相关的关键短语,用于关键短语生成,并能比现有最佳方法提高 4.33 个 F1M 分数。最后,对预训练语言模型进行细微调整,用于命名实体识别,问答,关系抽取,编写摘要等,达到了与现有最佳方法可比的性能,表明学习关键短语的丰富表达对于许多其他基础的自然语言处理任务是有益的。
Dec, 2021
本文对预训练掩码语言模型(MLMs)在不同抽取范式下的预测机制进行了研究,发现之前的良好表现主要归因于偏见提示和外部环境的贡献。实体类型引导和正确答案泄露是知识预测的改进方向。这些发现揭示了 MLMs 的预测机制,同时质疑了现有 MLMs 可以作为可靠事实知识库的结论。
Jun, 2021