ACLJul, 2023

DecompEval:以无监督分解的问答方式评估生成文本

TL;DR本文提出了一种简单而有效的度量方法 DecompEval,该方法在自然语言生成(NLG)评估中使用了指令调整的预训练语言模型,以提高其泛化能力和可解释性。实验结果表明,DecompEval 在未训练的度量标准中取得了最先进的性能,适用于评估文本摘要和对话生成的各种任务和评估维度,并具有较强的泛化能力和可解释性。