认识未知:一种敏感于不确定性的 LLM 指导调优方法
通过引入一种不确定性感知的上下文学习框架,我们改进了大规模语言模型的响应质量,并过滤掉具有较高不确定性的答案,从而提高了模型的准确性。
Oct, 2023
在本研究中,我们通过观察到以往的指导调优方法无论模型是否拥有相关知识都会强制其完成句子,从而导致大语言模型产生虚假事实的问题,提出了一种名为 R-Tuning 的全新方法。该方法通过首先确定参数化知识和指导调优数据之间的知识差距,然后基于知识交集构建拒绝感知数据,使大语言模型在回答超出其参数化知识范围内的问题时能够避免回答。实验结果表明,这种新的指导调优方法有效地提高了模型回答已知问题的能力,并避免了回答未知问题。此外,在应用于领域外数据集时,发现拒绝能力是一种可以推广到其他任务上的元技能。进一步分析令人惊讶地发现,学习不确定性比基于不确定性的测试具有更好的估计不确定性的能力。
Nov, 2023
本论文探讨了大型语言模型在理解自己的知识和衡量自身不确定性方面的能力,并提供了一个新的已知 - 未知问题数据集以及一个分类方法来解释不确定性的来源。通过评估 LM 在分类已知和未知问题以及在开放式问题回答中的质量方面,量化了 LM 表达答案中的不确定性的方法。
May, 2023
这项研究系统地调查了大型语言模型在缺乏先验知识以生成有意义回答的情况下常出现的产生杜撰和幻觉的问题,旨在探讨如何教导这些模型主动和可靠地表达不确定性。研究发现,在处理无法回答问题的同时,通过针对训练数据中缺失信息设计的对抗性问答基准测试,经过指令微调和来自人类反馈的强化学习后的大型语言模型表现明显优于未经处理的模型。此外,通过提取不确定度表达的方法得到的结果并不始终与大型语言模型直接回答问题的自信程度一致。因此,我们呼吁进一步研究如何教导大型语言模型主动和可靠地表达不确定性。
Nov, 2023
在高风险应用中使用大型语言模型(LLMs)时,我们需要知道何时可以信赖它们的预测。本研究首先论证了仅仅使用提示是不足以实现良好校准的,然后展示了在一个小数据集上进行精调以创建具有良好概括性和小计算开销的不确定性估计的方法。我们还研究了可靠的 LLM 不确定性估计的机制,并通过用户研究展示了不确定性估计如何影响人与 AI 的协作环境中的人类使用 LLMs。
Jun, 2024
使用知识感知微调(KnowTuning)方法解决大型语言模型在自然语言处理任务中的知识感知不足问题,并在通用和医疗问答数据集上进行了广泛的实验证明了其有效性,并展示了其在未知问答数据集上的泛化能力。
Feb, 2024
我们提出了一种自动化的大语言模型(LLM)转换方法,可以产生能够在每个预测中估计不确定性的具有不确定性感知能力的 LLM。我们的方法与模型和数据无关,计算效率高,不依赖外部模型或系统。我们在选择性问答环境下评估了转换模型,即尽可能回答问题同时保持给定的准确性,在必要时放弃提供预测。作为我们结果的一部分,我们在 SQuAD 抽取式问答任务和 TruthfulQA 生成式问答任务上测试了 BERT 和 Llama 2 模型变体。我们表明,使用我们方法提供的不确定性估计有选择性地回答问题,可以显著提高准确性,相比直接使用模型概率。
Nov, 2023
本研究评估了大语言模型的自我认知能力,通过引入自主问答数据集和一种自动化方法来检测不能回答的问题,研究发现大语言模型具有一定的自我认知能力,可以通过上下文学习和指导调整进一步提高其自我认知。但是,研究还发现,这些模型与人类在识别知识限制方面存在明显差距。
May, 2023
我们提出了一种基于样本不确定性的学习方法,通过引入更能体现样本不确定性的模型,来改善不同任务情景下的模型对齐,实验证明我们的方法能显著提高模型性能和数据效率。
Jun, 2024