改述类型间引发提示工程能力
预训练语言模型可以通过闭式样式提示来推断关系性知识,使用统一的元模板设计的 CONPARE-LAMA 探针表明句子结构在知识检索性能方面具有多种可取的特性,并且领域信息相对于语法形式更可靠地提升知识检索性能。
Apr, 2024
通过利用预训练模型和实例相关提示,本文提出生成多样且高质量的复述词句的方法,使用向量量化的提示来控制预训练模型的生成。实验表明此方法在三个基准数据集上取得了最新的最佳结果,包括 Quora、Wikianswers 和 MSCOCO。一旦被接受,我们将公开所有代码。
Nov, 2023
当前的复述生成和检测方法在相似性评分上过于依赖于单一的通用评分,忽视了语言的复杂语言属性。本文引入了两个新的任务来解决这个缺点,通过考虑特定文本位置上的复述类型 - 特定的语言扰动。我们将这些任务命名为复述类型生成和复述类型检测。我们的结果表明,虽然目前的技术在二元分类场景即复述或非复述上表现良好,但细粒度的复述类型的包含带来了显著的挑战。尽管大多数方法在生成和检测常规语义相似内容方面表现出色,但它们未能理解所操作的固有语言变量。在生成和识别复述类型训练的模型也在没有这些任务的情况下显示出改进。另外,扩展这些模型进一步提高了它们理解复述类型的能力。我们相信复述类型可以为开发复述模型和解决未来任务的开启一种新的范式。
Oct, 2023
通过系统分析大型语言模型(LLMs)抵抗提示扰动的稳定性,本研究构建 E-Bench 模拟真实人类使用情况,并讨论了同义扰动和排版扰动的组合以及性能下降的主要原因,实验证明即便随着模型规模的增加,易用性显著提升,但仍需努力建立足够用户友好的模型。
Jun, 2024
大型语言模型的兴起改变了自然语言处理领域从单任务导向到全面的端到端多任务学习范式,其中基于大型语言模型的提示方法引起了广泛关注,尤其是由于提示工程的技术优势以及不同提示方法揭示的自然语言处理原理。本研究旨在通过建立通信理论框架来评述现有的提示工程方法,深入了解其中在四个典型任务中的发展趋势,并为未来的提示工程方法指明有前途的研究方向。
Oct, 2023
本综述论文通过提供近期进展的结构化概述,对提示工程的不同方法和技术进行分类,详细介绍了提示方法学、应用领域、所使用的模型和数据集,并探讨了每种方法的优点、局限性以及通过分类图和表格总结了数据集、模型和关键点,从而更好地理解这一快速发展领域并为提示工程的未来研究提供洞察、揭示了开放性挑战和机遇。
Feb, 2024
通过分析 Prompt 编辑行为和变化类型,以更好地理解 Prompt 工程实践,我们发现与大型语言模型的交互主要通过提示进行,并且有效提示设计取决于用户的迭代过程和目标的实现。
Mar, 2024
利用自动化方法生成的 AutoPrompt,我们展示了预训练语言模型在自然语言推理、情感分析和关系提取方面的潜在能力,以及自动生成的提示方法是现有探究方法的一个可行的无参数替代方法。
Oct, 2020
语言模型提示优化研究表明,通过无明显意义或语法结构的自动生成的令牌序列,包括模型嵌入空间中的向量序列,通常胜过语义和语法良好的手工制作的提示。我们使用机器生成的提示来探究模型对非自然语言表达组成的输入的响应,并在多个语义任务中研究不同尺寸模型的行为,以及它们对连续和离散机器生成的提示和人工生成的自然语言提示的响应行为进行比较。即使产生相似的输出,机器生成的和人工提示通过网络处理途径触发不同的响应模式,包括不同的困惑度、不同的注意力和输出熵分布,以及不同的单元激活特征。我们提供了对不同提示类型激活的单元性质的初步洞察,表明只有自然语言提示才会引起真正的语言电路的激活。
Oct, 2023