使用结构化提示技术,我们证明了预先训练的语言模型(PLMs)可以在零或少量样本情况下执行标记任务,而不是仅靠表面级别的词汇模式,这表明 PLMs 包含了一种通用的语言学知识表示方式。
Nov, 2022
利用自动化方法生成的 AutoPrompt,我们展示了预训练语言模型在自然语言推理、情感分析和关系提取方面的潜在能力,以及自动生成的提示方法是现有探究方法的一个可行的无参数替代方法。
Oct, 2020
本文提出了一种名为 ProP 的方法,它利用 GPT-3 这个大型语言模型进行知识库构建任务,结合多种提示技巧,结果表明手动提示的重要性、变长回答集的有效用处以及实体别名字典的效用等,从而获得了较高的预测质量。
Aug, 2022
本文提出了一种基于逐个样例级别的 Prompt 搜索方法,然后使用 Prompt 集成方法将搜索到的强彩票 Prompts 推广到未见过的数据上。实验结果表明,该方法与其他无梯度、无优化基线方法相比能够取得可比的结果。
May, 2023
本文综合系统地对五个临床自然语言处理任务(临床意义消除、生物医学证据提取、共指消解、药物状态提取和药物属性提取)的提示工程进行了实验研究,评估了多种提示类型在三种先进的大型语言模型(GPT-3.5、BARD 和 LLAMA2)上的性能,并提出了对临床 NLP 领域提示工程的新见解和指南。
Sep, 2023
本研究提出了知识提示范式和基于知识提示的 Pre-trained 语言模型 KP-PLM 框架,该框架通过多种连续提示规则将知识子图转化为自然语言提示,并在这些提示的基础上提出了两个新的知识感知无监督任务,实验证明了 KP-PLM 在多个自然语言理解任务中的优越性。
Oct, 2022
本研究探索了一个迭代提示框架,用于让预训练语言模型具有多步推理能力,我们提出了一种基于上下文的迭代提示器,可以动态地合成提示,以捕捉不同推理步骤之间的变化。实验证明,该方法在多步推理方面具有很好的效果。
Mar, 2022
利用个性化中间学习提取作家文本的任务无关特征,通过使用作家特定提示来个性化统一的预训练语言模型,提高文本理解任务的准确性。
本文研究了使用提示知识和不使用提示知识时,ChatGPT 生成的答案准确性的差异,并发现使用提示知识会降低答案的准确性。这对基于生成式预训练语言模型的更健壮和透明的问答系统的开发具有重要的启示作用。
Feb, 2023
通过在 EHR 笔记上下文中添加提示,我们设计了并验证了一系列实验,用于实现动态上下文下的生物医学语言模型内置知识库的任务。我们的实验表明,这些语言模型所具有的知识可以从 EHR 笔记的噪声知识中区分出正确的知识,这种区分能力也可以作为一个新的度量来评估模型所具有的知识量。