Jul, 2024
关于开放领域对话评估的LLMs基准测试
On the Benchmarking of LLMs for Open-Domain Dialogue Evaluation
TL;DR大型语言模型已在自然语言处理各个任务中显示出卓越的能力。然而,在自动开放领域对话评估方面,现有的评估基准往往依赖于过时的数据集,评估流畅度和相关性等方面,无法充分捕捉现代聊天机器人模型的能力和限制。本论文对当前的评估基准进行了批判性研究,强调使用旧的响应生成器和质量方面未能准确反映现代聊天机器人的能力。对近期LLM生成的数据集(SODA)进行的小型注释实验揭示了GPT-4等LLM评估者在检测当前LLM聊天机器人生成的对话中的实际问题方面存在困难。