ACLSep, 2021

TruthfulQA:衡量模型模仿人类错误的程度

TL;DR提出了一种 benchmark 以衡量语言模型在生成答案时是否真实,测试了 GPT-3、GPT-Neo/J、GPT-2 和基于 T5 的模型,发现最好的模型能够在 58%的问题上保持真实,建议使用不同于模仿网页文本的训练目标来进行微调以提高真实性。