Aug, 2024
大型语言模型作为评判者在对齐任务中的系统评估:可解释指标和多样化提示模板
Systematic Evaluation of LLM-as-a-Judge in LLM Alignment Tasks:
Explainable Metrics and Diverse Prompt Templates
TL;DR本研究探讨了大型语言模型(LLM)在对齐任务中作为评判者的可靠性问题,尤其是评估现有评价指标的可解释性和LM内部不一致性的问题。通过开发新的评价框架,本文揭示了不同提示模板对LLM评判者性能的显著影响,并指出测试的LLM评判者与人类评估者之间存在中等对齐水平。本工作为选择用于对齐任务的LLM评判者提供了重要的见解。