May, 2023
通过多态性和同义替换向生物医学预训练模型注入知识
Injecting Knowledge into Biomedical Pre-trained Models via Polymorphism and Synonymous Substitution
Hongbo Zhang, Xiang Wan, Benyou Wang
TL;DR通过实验表明,将相关实体替换为同义词、上下位词或相关概念是将关系知识注入预训练语言模型的一种简单有效方法,该方法能够更好地捕捉关系知识,并提高各种生物医学领域下游任务的性能。