COLINGNov, 2020

细节藏恶魔:评估基于 Transformer 的方法在细粒度任务中的局限性

TL;DR该文探讨了基于 transformer 的神经语言模型生成的上下文嵌入在文本相似度问题上的表现,针对不同粒度上的文本匹配任务,发现相较于简单的基准算法 TF-IDF,该模型在细颗粒度上的匹配任务表现欠佳,提出了一种简单而有效的方法,即将 TF-IDF 与上下文嵌入模型相结合,相对性能提升达到 36%。