BriefGPT.xyz
Feb, 2021
利用先验知识指导BERT在语义文本匹配任务中的注意力
Using Prior Knowledge to Guide BERT's Attention in Semantic Textual Matching Tasks
HTML
PDF
Tingyu Xia, Yue Wang, Yuan Tian, Yi Chang
TL;DR
通过将先前的知识直接注入到BERT的注意力机制中,我们提出了一种简单而有效的方法来提高其在语义文本匹配任务中的性能,并在数据稀缺时表现最为显著。
Abstract
We study the problem of incorporating
prior knowledge
into a deep
transformer-based model
,i.e.,Bidirectional Encoder Representations from Transformers (BERT), to enhance its performance on
→