预训练语言模型是否可疑?从因果视角理解隐形风险
该研究量化了各种类型提示的偏差,并评估了其对不同基准测试的影响。通过提出一种基于表示的方法来缓解提示偏差,研究发现该方法不仅可以纠正由提示偏差引起的过拟合性能,还可以显著提高提示检索能力。
Mar, 2024
本文提出了一种无模型的探测方法 —— 提示探测法,通过在 5 个探测任务上的实验表明,这种方法在提取信息方面与诊断探针相当或更好,并且可以自我学习得更少。此外,结合关注头修剪与提示探测法,分析模型在其架构中存储语言信息的位置,并通过删除对特定语言属性至关重要的头部来评估预训练的有用性。
Jul, 2022
本文提出一个恶意提示模板构造方法(PromptAttack)来探究预训练语言模型(PLMs)的安全性能。对三个数据集和三个 PLMs 进行广泛实验,证明了我们提出的 PromptAttack 方法的有效性。我们还进行了实验,验证了我们的方法在少量样本情境下也可以适用。
Sep, 2022
本文提出了一个度量标准,评估了一个固定提示对标签或给定属性的预测偏差,并提出了一种新的基于贪心搜索的搜索策略来确定最佳提示,以提高上下文学习的性能,并在多种下游任务中使用 GPT-3 等最先进的主流模型进行全面实验。结果表明,我们的方法可以有效提高模型的在上下文学习性能。
Mar, 2023
该论文研究了少样本提示模型是否也利用了表象线索,发现在 MNLI、SNLI、HANS 和 COPA 数据集上,尽管模型在表象线索实例上表现良好,但在没有表象线索的实例上的性能往往低于或仅略优于随机准确度。
May, 2022
该研究论文调查和组织了一种新兴的自然语言处理范式,这种范式被称为 “基于提示的学习”,并在其中介绍了其基础知识和数学符号,以及其在预训练模型、提示和调整策略等方面的相关研究成果,该框架通过使用模板将输入 x 修改为具有一些未填充信息的文本字符串提示 x',并将语言模型用于填充未填充信息以获得最终字符串 x,从而实现零样本学习和少样本学习。
Jul, 2021
本文研究了 Prompt-based learning 模式的普适漏洞,发现加入特定的触发器可以完全控制和降低其性能,并提出了缓解攻击方法的潜在解决方案。
Apr, 2022
本文提出了一种名为 ProP 的方法,它利用 GPT-3 这个大型语言模型进行知识库构建任务,结合多种提示技巧,结果表明手动提示的重要性、变长回答集的有效用处以及实体别名字典的效用等,从而获得了较高的预测质量。
Aug, 2022
通过对物理启发的合成数据进行实验,我们在本文中实证了基于预训练语言模型的因果推理的前述局限性,并提出了一种新的框架,将来自预训练语言模型的先验知识与因果发现算法结合起来,以初始化用于因果发现的邻接矩阵,并利用先验知识进行正则化,我们提出的框架不仅通过集成预训练语言模型和因果发现来提高性能,还建议如何利用预训练语言模型提取的先验知识与现有的因果发现算法结合。
Nov, 2023
通过将已知分布近似为去偏的目标领域的真实分布,并从近似分布中均匀采样一定的代表性特征,生成 PLMs 的最终提示,我们的方法在基准测试中实现了最先进的性能。
Jan, 2024