ACLApr, 2020
用于无监督学习的快速准确的深度双向语言表示
Fast and Accurate Deep Bidirectional Language Representations for Unsupervised Learning
Joongbo Shin, Yoonhyung Lee, Seunghyun Yoon, Kyomin Jung
TL;DR提出了一种基于 Transformer 的文本自编码器(T-TA),可以在不需要重复推理的情况下计算上下文语言表示。实验结果表明,在 CPU 环境下,T-TA 在 reranking 任务中比基于 BERT 的模型快六倍,在语义相似性任务中快十二倍,并在这些任务上表现出与 BERT 相当甚至更好的准确性。