Sep, 2024

交叉精炼:通过双模型学习改善自然语言解释生成

TL;DR本研究解决了大型语言模型(LLM)生成自然语言解释(NLE)时的表现不佳问题。提出的交叉精炼方法通过两个LLM协同工作,一个生成解释,另一个提供反馈,实现了对初始解释的有效优化。实验结果表明,该方法在多个自然语言处理任务上优于基线模型Self-Refine,并且能够在较低效能的LLM上也达成良好效果。