Nov, 2023

重述与回应:让大型语言模型为自己提出更好的问题

TL;DR介绍了一种名为 “重述和回答”(RaR)的方法,通过使人类的问题被大型语言模型(LLMs)重述和展开,从而在单个提示中提供回答,以提高 LLM 的性能。还介绍了 RaR 的两步变体方法,通过将问题由一个 LLM 重述后传递给另一个 LLM,有效地利用了由一个 LLM 生成的重述问题。实验证明这些方法显著提高了不同模型在各种任务上的性能,并与 Chain-of-Thought(CoT)方法进行了综合比较,发现 RaR 与 CoT 互补,结合使用效果更好。该工作不仅对提高 LLM 性能具有高效和有效的贡献,还对公正评估 LLM 能力具有重要意义。