评判评判者:针对在线评论生成的神经语言模型的大规模评估研究
在评估自然语言生成的过程中,使用大型语言模型 (LLMs) 作为人类评判的替代方法是一种最新的趋势。然而,本研究发现其评估结果存在偏见。为解决这一问题,提出了多维度独立评估系统 (Multi-Elo Rating System),在提高 LLM 评估质量方面取得了显著成效,但对众包评估没有明显改善,需要进一步探索和改进。
Jul, 2023
本文介绍了使用大型语言模型(LLM)代替人类评估来评估人工智能生成的文本的潜力,探索了 LLM 对两个自然语言处理任务的开放性故事生成和对抗性攻击的评估结果,并发现 LLM 评估结果与人类专家的评估结果保持一致。
May, 2023
本文探讨在多任务学习设置中,使用主观评估作为语言生成模型训练的一部分,并使用群众创作对话语料库对六种不同的语言生成模型进行微调。评估显示,多任务学习的模型生成的话语在主观上评分最高,且在推动对话发展、无冒犯性等方面得分最高。因此,将来可以研究将主观人类评估纳入语言生成模型训练中,从而在开发过程中更好地与人类用户进行交互。
Apr, 2021
本文提出了一种基于大型预训练语言模型和概率分布的区分程序来自动评估自然语言生成方法产生的文本样本的人类相似度分数,与人类判断的自动评估进行了验证。
Jun, 2020
本文提出了一种使用 BERT fine-tuning 的方法来比较生成的自然语言模型,同时还提出了使用技能等级系统来评估模型质量,并将其作为性能指标,在训练过程中进行优化。实验结果表明,该方法与人类偏好的相关性更高,训练成果更优秀,有效性得到了证明。
Feb, 2020
为了解决开放式自然语言生成任务中评估标准不一致的挑战,我们提出了一种协同评估流程 CoEval,涉及特定任务标准的清单设计和文本的详细评估,其中大型语言模型生成初步的构思,而人类进行审查,结果显示,通过利用大型语言模型,CoEval 能够高效地评估长文本,节省时间并减少人类评估的异常值,人类审查仍然起着重要作用,以最终确保可靠性。
Oct, 2023
评估 NLP 模型时,使用 LLM-generated 判断取而代之人为判断的趋势日益增长。我们提供了一个由人工注释的 20 个 NLP 数据集的 JUDGE-BENCH,并对 11 个当前的 LLM 进行全面评估,涵盖公开权重和专有模型,以验证其模拟注释的能力。我们的评估结果表明,每个 LLM 在与人工判断的相关性方面在不同数据集上存在很大的差异。我们得出结论,LLM 尚不具备系统替代 NLP 中的人类评审员的能力。
Jun, 2024
我们提出了一个具有 13B 参数的生成式评测模型 Auto-J,通过训练用户查询和大规模真实场景下 LLM 生成的响应,以适应多样化的评估协议,包括对比评估和单一响应评估,并提供详细分析和案例研究来揭示我们方法的潜力。
Oct, 2023
研究评估非专家区分人工和机器生成文本 (使用 GPT2 和 GPT3) 的能力,指出评估者不经培训情况下很难区分,通过三种方法培训后的准确率提高到了 55%,但在三个领域中并没有显著提高。作者分析了训练不足的人类评估在自然语言生成领域的作用,并提供了改进人工评估的建议。
Jun, 2021
该文章调查了近年来开发的自然语言生成(NLG)系统的评估方法。将 NLG 评估方法分为三类,讨论了每种类别取得的进展和仍然面临的挑战,重点关注最近提出的 NLG 任务和神经 NLG 模型的评估。最后提出了自动文本摘要和长文本生成的两个任务特定的 NLG 评估示例,并提出了未来的研究方向。
Jun, 2020