关键词knowledge-enhanced pre-trained language models
搜索结果 - 3
- KEHRL: 使用层次强化学习学习知识增强语言表征
本文提出了一种通过层次强化学习来学习知识增强语言表示的方法,该方法集成了知识图谱中的关系三元组,并通过自监督学习将这些外部数据源整合到语言模型中,以避免注入不准确或不相关的知识,并有效地提升了模型在各种自然语言理解任务上的性能。
- EMNLP学习领域自然语言理解中的知识增强上下文语言表示
Knowledge-Enhanced Pre-trained Language Models improve downstream NLP tasks in closed domains by injecting knowledge fac - EMNLP利用异构加速预训练技术优化和推进中文自然语言理解
本文提出了中文知识增强的预训练语言模型 CKBERT,其中包括语言感知的掩模语言模型和对比多跳关系模型等预训练任务。通过实验对比发现,CKBERT 在各种基准 NLP 任务和不同模型尺寸方面均优于强负载。