Aug, 2024

Unc-TTP:一种分类大型语言模型不确定性以改善上下文示例选择的方法

TL;DR本研究针对大型语言模型(LLM)用户难以判断其生成响应的可信度这一问题,提出了一种新颖的不确定性三分测试范式(Unc-TTP),用于分类LLM的不确定性。研究发现,Unc-TTP在分类方面优于现有的基于采样的方法,并能有效指导上下文示例选择,从而提升LLM的性能。