Jun, 2024
利用LLMs进行对话质量测量
Leveraging LLMs for Dialogue Quality Measurement
TL;DR该论文探讨了使用大型语言模型(LLMs)进行自动对话质量评估的方法,并在公共和专有数据集上尝试了各种配置。结果表明,更大的模型产生了更准确的对话标签;算法选择背景上下文示例优于随机选择;在输出最终标签之前,使用“思维链”(CoT)推理和标签提取过程进行合理化,可以提高性能;精细调整的LLMs优于开箱即用的模型。研究结果表明,合适地调整和具有足够推理能力的LLMs可以用于自动对话评估。