个性化文本生成的自动提示改写
自动选择给定输入的最佳提示,克服手动设计有效提示的挑战,通过聚类训练数据、生成候选提示、生成输入 - 提示 - 输出数据集以训练评估器,并使用评估器在测试时选择最佳提示来实现兼顾通用性和特异性的方法。在零 - shot 问答数据集上显示出竞争性性能。
Apr, 2024
利用自动化方法生成的 AutoPrompt,我们展示了预训练语言模型在自然语言推理、情感分析和关系提取方面的潜在能力,以及自动生成的提示方法是现有探究方法的一个可行的无参数替代方法。
Oct, 2020
在这篇论文中,我们提出了一种名为 RePrompt 的新方法,通过从与 LLM 代理的交互中获取的聊天记录,逐步优化 LLM 代理的提示,从而使 LLM 在特定领域中学会规划,我们在 PDDL 生成和旅行规划的实验中证明了我们的方法可以提高不同推理任务的性能。
Jun, 2024
个性化文本生成是一个新兴的研究领域,通过使用大型语言模型 (LLMs),我们提出了一种通用的个性化文本生成方法。借鉴写作教育的实践,我们开发了一个多阶段和多任务的框架来教授 LLMs 进行个性化生成。我们的方法包括检索、排名、总结、综合和生成多个阶段,并引入了一个多任务设置来进一步提高模型的生成能力。我们在三个涵盖不同代表性领域的公开数据集上评估了我们的方法,结果显示相对于各种基线模型,我们取得了显著的改进。
Aug, 2023
通过输入增强措施,我们研究了各种提示策略来提高大型语言模型在个性化内容推荐中的性能。我们提出了一种名为 LLM-Rec 的方法,包括四种不同的提示策略:基本提示、推荐驱动的提示、参与驱动的提示和推荐驱动加参与驱动的提示。我们的实证实验证明结合原始内容描述和 LLM 生成的增强输入文本,使用这些提示策略可以改善推荐性能。这一发现强调了将多样的提示和输入增强技术与大型语言模型相结合以提高个性化内容推荐能力的重要性。
Jul, 2023
我们提出了一种将大型预训练模型视为搜索引擎的新视角,从而使以前用于提高搜索引擎性能的技术得以重新应用。通过个性化查询重写技术的示例,我们在文本到图像生成领域使用了这种视角。尽管该领域取得了显著进展,但仍然很难创建与个体用户的期望和偏好密切对齐的个性化视觉表示。这个过程需要用户用对模型理解且准确捕捉他们的愿景的文字来表达,这对许多用户来说很困难。在本文中,我们通过利用用户与系统的历史互动来提高用户提示的质量来解决这个挑战。我们提出了一种基于具有超过 300k 个提示的 3115 个用户的新大规模文本到图像数据集的用户提示重写方法。我们的重写模型增强了用户提示与其预期视觉输出之间的表达和对齐。实验证明了我们方法的优越性,这在我们的新离线评估方法和在线测试中得到了证明。我们的方法为应用更多搜索引擎技术来构建真正个性化的大型预训练模型打开了令人兴奋的可能性。
Oct, 2023
自回归大语言模型已经改变了自然语言处理领域的格局。基于预训练和提示范式的方法已经取代了常规的预训练和微调方法用于许多下游自然语言处理任务。本文讨论了已经在自回归大语言模型上使用的各种提示技术,提供了一个基于这个分类体系的简明调研,并且确定了自回归大语言模型中提示领域的一些未解决问题,可作为未来研究的方向。
Nov, 2023
我们研究了自动的长提示工程算法,证明了贪婪算法和遗传算法在搜索效率方面的优越性,并引入了两种利用搜索历史增强搜索算法效果的新技术。我们的研究结果表明,该算法在 Big Bench Hard 的八个任务中实现了平均 9.2% 的准确度提升,突显了自动化提示设计对充分利用 LLMs 的能力的重要性。
Nov, 2023
本文提出了将 prompting 和 reinforcement learning 相结合的方法以控制 chatbot 生成的内容,并通过 multi-task learning 提高该方法的泛化能力和适应性,实验证明所提出的方法可以成功控制多个 SOTA Dialogue Models。
Jun, 2022