Oct, 2024
大型语言模型在遵循指令时能否有效估计不确定性?
Do LLMs estimate uncertainty well in instruction-following?
TL;DR本研究针对大型语言模型(LLMs)在高风险应用中遵循用户指令的能力不足的问题,首次系统评估了其在不确定性估计方面的能力。通过引入受控评估设置和两个数据基准版本,我们发现现有的不确定性估计方法在细微错误情况下表现不佳,从而揭示了LLMs在指令遵循过程中面临的关键挑战,并为构建更可靠的AI代理提供了重要见解。