Dec, 2022

通过输入干预对话式问答分析语言模型的语义忠实度

TL;DR本研究考虑了三个 Transformer 模型 (BERT,RoBERTa 和 XLNet),并调查它们在语义上的表现。通过删除或否定某些单词,我们发现这些模型在语义上的准确性下降,而我们提出的基于干预的训练方案可以显著提高这种准确度。但是,我们还发现这种训练并不能改善模型在逻辑否定,谓词 - 论元结构等方面的不足。此外,我们还测试了 InstructGPT 的效果,发现虽然它在谓词 - 论元结构任务上表现得很好,但对删除和否定干预响应不佳。