Nov, 2023

大型语言模型中的可信源对齐

TL;DR本文提出了大语言模型(LLMs)的一个属性 —— 受信任的来源对齐(TSA),用于衡量模型在面对不确定性或争议时与受信任的发布者内容的一致性。在 FactCheckQA 评估数据集上应用该属性,作者发现随着模型规模的增大,模型在对齐受信任来源方面的性能从随机状态提高到最高 80% 的平衡准确率。