Jan, 2021

BERT & Family 吃词沙拉: 文本理解实验

TL;DR为了研究大型语言模型对于无意义输入的响应,本文定义了简单的构建规则,并通过实验发现,即便面对这种类型的输入,最先进的模型仍然表现出高置信度。为了提高模型的鲁棒性,作者提出可以显示地将模型训练成对非法输入有意识的处理方式以提升性能。