自适应温度缩放的语言模型校准
研究在零样本场景下的大规模多语言语言模型(MMLMs)的标定问题,观察到很明显的误标定现象,在低资源语言或与英语语言类型不同的语种中尤为突出。进一步实证研究表明,温度缩放和标签平滑等标定方法能够在提高零样本场景下的标定过程中发挥良好作用,并发现少量样本数据能够显著降低标定误差。
Oct, 2022
本文通过精细控制实验和给定数据集,考察了PLM模型在训练过程中的校准性能,发现仍然存在校准问题;然后对比了多种方法,提出基于已有方法的扩展性学习方法,证明其显著提高模型的不确定性估计水平。
Oct, 2022
本研究旨在评估从经过强化学习加人工反馈的预先训练语言模型中提取置信度得分的可行方法,通过合理的提示策略和温度缩放,成功降低超过50%的校准误差
May, 2023
通过对大型语言模型的可靠性进行置信度校准的系统检查,我们评估了在预训练和对齐训练阶段中不同训练设置(如参数尺度和训练数据)对模型校准的影响,并对生成、真实性和理解等方面进行了全面的评估。
Nov, 2023
现代自回归语言模型研究了在上下文学习中,如何在广泛数据上通过预测下一个令牌以最小化对数损失,以获得校准答案。通过大量实验,发现当增加模型大小、增加上下文学习示例以及使用指导、对话或强化学习等方法在精心策划的数据集上对模型进行微调时,性能和校准之间存在权衡,并且常用的重新校准技术在校准错误方面的改善有限,因此在期望模型可靠性的设置下,可能需要新的方法。
Dec, 2023
大型语言模型(Large Language Models) 在指令或人类反馈方面很难进行全面的微调,但参数高效稀疏微调(sparse fine-tuning)的方法已经在性能上取得了一定的成果,本文将稀疏微调方法扩展到像LLaMA 2 7B和13B这样的最先进的LLMs,实验证明对指令调整进行稀疏微调通常比流行的参数高效微调方法如LoRA表现更好,并且在运行时间上可比较。
Jan, 2024
通过引入统一的校准框架,以及发展三种度量和两种置信度引导方法,提高大规模语言模型的校准能力,并进行了实验验证,进一步展示了大型模型不一定保证更好的校准,校准性能依赖于度量,自一致性方法在基准数据集上表现优异,通过微调、整合相关源文件、缩放温度、将自一致性与自我评估相结合等技术可以提高校准性,此研究不仅挑战了现有大规模语言模型校准的概念,还提供了改善长文生成可信度的实用方法。
Feb, 2024
通过从多个随机抽样的模型生成的分布中导出确定度來提高大型语言模型(LLM)预测的准确度。在多个开放和闭源模型上进行广泛评估,结果表明基于一致性的校准方法优于现有的事后方法,并提供了选择适用于不同LLMs特性的合适一致性度量标准的实用指南。
Feb, 2024
我们提出了一个适用于大规模语言模型(LLM)的校准方法——温度计(THERMOMETER),该方法能够通过学习辅助模型来校准LLM,具有高效计算、保持LLM准确性以及为新任务生成更好校准响应的特点,经过多个基准测试的广泛实证评估证明该方法的有效性。
Feb, 2024
本研究探讨了大型语言模型在四个维度上校准退化的问题,包括模型、校准指标、任务和自信度提取方法。结果表明,虽然对齐与校准的关系并不总是权衡,但在严格的分析条件下,对齐过程始终会损害校准。因此,研究强调了测量模型自信度和校准错误时需谨慎,并呼吁未来研究开发能同时提升指令跟随和校准的算法。
Aug, 2024