Sep, 2024
通过基础归属和拒绝学习来测量和提升RAG中大型语言模型的可信度
Measuring and Enhancing Trustworthiness of LLMs in RAG through Grounded
Attributions and Learning to Refuse
TL;DR本研究针对检索增强生成(RAG)系统中大型语言模型(LLMs)的适用性缺乏研究的空白,提出了一种新的指标“信任评分”,以全面评估LLMs的可信度。文章提出的“信任对齐”框架能有效提升LLMs的信任评分,经过对比,使用该方法对齐的LLaMA-3-8b在多个任务上显著超越同类开源模型。