Mar, 2025

语言模型无法反思其语言知识

TL;DR本文研究了大型语言模型(LLM)在自我反思能力方面的不足,特别是在语法知识和词预测领域。通过提出新的反思度量标准,研究表明这些模型的反应无法准确反映其内部知识,挑战了当前的结论,即模型具备内部反思能力。