ACLApr, 2020

用于无监督学习的快速准确的深度双向语言表示

TL;DR提出了一种基于 Transformer 的文本自编码器(T-TA),可以在不需要重复推理的情况下计算上下文语言表示。实验结果表明,在 CPU 环境下,T-TA 在 reranking 任务中比基于 BERT 的模型快六倍,在语义相似性任务中快十二倍,并在这些任务上表现出与 BERT 相当甚至更好的准确性。