Feb, 2020
基于 Transformer 的自然语言理解任务压力测试
Stress Test Evaluation of Transformer-based Models in Natural Language Understanding Tasks
Carlos Aspillaga, Andrés Carvallo, Vladimir Araujo
TL;DR本文通过对三种基于 Transformer 的模型(RoBERTa,XLNet 和 BERT)在自然语言推断(NLI)和问答(QA)任务中的评估研究,发现这些模型在脆弱性测试中表现比循环神经网络模型更鲁棒,但仍具有各种意外行为,展示了在这个领域仍有改进的空间