Feb, 2020

基于 Transformer 的自然语言理解任务压力测试

TL;DR本文通过对三种基于 Transformer 的模型(RoBERTa,XLNet 和 BERT)在自然语言推断(NLI)和问答(QA)任务中的评估研究,发现这些模型在脆弱性测试中表现比循环神经网络模型更鲁棒,但仍具有各种意外行为,展示了在这个领域仍有改进的空间