Jun, 2024

大型语言模型必须学会自知之明

TL;DR在高风险应用中使用大型语言模型(LLMs)时,我们需要知道何时可以信赖它们的预测。本研究首先论证了仅仅使用提示是不足以实现良好校准的,然后展示了在一个小数据集上进行精调以创建具有良好概括性和小计算开销的不确定性估计的方法。我们还研究了可靠的LLM不确定性估计的机制,并通过用户研究展示了不确定性估计如何影响人与AI的协作环境中的人类使用LLMs。