大规模语言模型在歧义下的自一致性
本文介绍了一个新的方法,通过扩展自一致性的应用范围并使用轻量级无参数相似函数,改善了大规模预训练语言模型生成的质量和一致性,包括代码生成、自动格式化和文本摘要任务。
Jul, 2023
研究中提出了 ConsisEval 基准,用于量化大型语言模型的一致性,并通过相对一致性得分分析改进一致性的潜力。综合实验结果表明,尽管 GPT-4 的一致性得分最高,但仍然对特定问题存在不一致性,这可能是由于多余信息干扰、对问题的错误解读等因素导致的。而能力更强的模型通常具有更高的一致性,但也存在例外情况,并且硬数据能够提高微调和上下文学习的一致性。
Jun, 2024
本论文主要研究大型语言模型在多步推理中的自我一致性表现,提出假设一致性和组合一致性两个重要概念,并实现对 GPT-3 模型在维基百科,日常对话,算术和地理查询任务中表现不佳的演示。
May, 2023
定义了指令不一致问题并提出了两阶段训练框架,在第一阶段通过相似指令增强帮助模型跟随指令,第二阶段通过区分相似回应中微小差异来提高模型的多样性和人类期望的一致性,并通过自奖励训练过程来验证该框架的有效性。
Mar, 2024
通过从多个随机抽样的模型生成的分布中导出确定度來提高大型语言模型 (LLM) 预测的准确度。在多个开放和闭源模型上进行广泛评估,结果表明基于一致性的校准方法优于现有的事后方法,并提供了选择适用于不同 LLMs 特性的合适一致性度量标准的实用指南。
Feb, 2024
我们通过手动创建一个高质量的事实问答近义词语料库,并与先前工作中的其他相关度量标准相结合,以评估现代大型语言模型(LLMs)的语义一致性,以构建和评估一个用于事实问答参考无关性能预测的框架 -- 预测语言模型准确回答问题的可能性。通过对五个现代 LLMs 对该框架进行评估,我们展示了令人鼓舞的结果,显著超越了基线水平。
Nov, 2023
利用大型语言模型采样的多个推理路径,结合自我一致性和链式思维提示,在各种具有挑战性的任务上取得了显著的性能提升。本研究提出了一种通用的自我一致性方法(USC),它利用语言模型自身从多个候选答案中选择最一致的答案。我们在包括数学推理、代码生成、长篇摘要和开放式问答在内的多个数据集上评估了 USC 的性能。在原来的自我一致性方法不适用的开放式生成任务中,USC 有效利用多个样本并提高了性能。对于数学推理,USC 在不要求答案格式相似的情况下,达到了标准自我一致性的性能。最后,在无法访问执行结果的情况下,USC 也达到了代码生成中基于执行的投票性能。
Nov, 2023
利用自洽性检查作为一种忠实度测量,将其应用于大型语言模型自我解释的三种类型,即反事实解释、重要性度量和删除。通过不同任务和模型,发现忠实度是任务和模型相关的,例如对于情感分类,Llama2 的反事实解释、Mistral 的重要性度量和 Falcon 40B 的删除是更加忠实的。最后,我们的发现在提示变体方面是稳健的。
Jan, 2024
本研究针对更新的预训练语言模型(PLMs)在语义一致性方面的问题,提出了一种衡量语义一致性的度量标准,并在 TruthfulQA 数据集上评估多个 PLMs 的性能,发现我们提出的语义一致性度量标准比传统的基于词汇一致性的度量标准更可靠,也与人类评估输出一致性的程度更为相关。
Nov, 2022