Aug, 2024
Unc-TTP:一种分类大型语言模型不确定性以改善上下文示例选择的方法
Unc-TTP: A Method for Classifying LLM Uncertainty to Improve In-Context
Example Selection
TL;DR本研究针对大型语言模型(LLM)用户难以判断其生成响应的可信度这一问题,提出了一种新颖的不确定性三分测试范式(Unc-TTP),用于分类LLM的不确定性。研究发现,Unc-TTP在分类方面优于现有的基于采样的方法,并能有效指导上下文示例选择,从而提升LLM的性能。