May, 2023

无梯度和演示的大型语言模型交互式任务的提示优化

TL;DR研究提出了 LLM-PO,一种新方法,可以使 LLMs 在没有梯度访问或广泛演示的情况下解决交互式任务。该方法通过维护基于文本的计划并要求 LLMs 根据其采集的经验反思当前计划的优缺点,并根据 LLMs 的反馈来更新计划和收集更多的经验,从而解决交互式任务。在 HotpotQA 上的实验表明,LLM-PO 的成功率比基于上下文的学习(ICL)基线更高或相当,同时需要更少的推理成本。