Aug, 2024

揭示大型语言模型的盲点:自我挑战框架

TL;DR本研究旨在解决大型语言模型(LLMs)在评估其局限性方面的不足。我们提出了一种自我挑战的评估框架,通过引导LLMs发现自身错误并总结出新模式,结合人类反馈,生成更具挑战性的数据。研究表明,仅有44.96%的实例能被模型正确回答,此框架为LLMs的动态评估提供了新思路。