基于 RAG 的众包任务分解通过带提示的掩码对比学习
基于预训练语言模型的多任务提示学习框架(TemPrompt)结合了提示调整和对比学习来解决事件的演变以及任务请求的问题,实验结果表明在标准和少样本情况下,TemPrompt 在多个指标下优于其他基准模型,并通过案例研究验证了在众包场景中的有效性。
Jun, 2024
我们提出了 Prompted Contrast with Masked Motion Modeling (PCM3) 方法,通过互惠方式集成了对比学习和遮挡预测任务,极大地提高了在不同下游任务中的泛化能力。通过减少学习两个不同训练任务造成的干扰,并通过掩模预测为对比学习提供了新视角,指导了高级语义信息的预测训练。与现有的工作相比,在三个大规模数据集上进行了大量实验证明了 PCM3 方法的卓越泛化能力。
Aug, 2023
CP-Tuning 是第一个无需手动工程任务特定提示和说明符进行微调的端到端对比提示调整框架,它与任务不变的连续提示编码技术和完全可训练的提示参数相集成。
Apr, 2022
在本研究中,我们提出了 PromptCL,这是一种用于事件表示学习的新框架,能够有效地发挥预训练语言模型 (PLMs) 综合捕捉短事件文本语义的能力。PromptCL 利用了从提示学习中借鉴的 Prompt 模板,通过在对比学习中扩展输入文本,提供事件组成部分的结构概述,从而提高事件表示学习的效果。此外,我们提出了主谓宾 (SPO) 的词序和面向事件的掩码语言建模 (EventMLM) 来训练 PLMs 理解事件组成部分之间的关系。实验结果表明,PromptCL 在事件相关任务上优于最先进的基准方法,并且我们进行了彻底的分析,证明使用提示可以提高事件表示的泛化能力。
Apr, 2024
通过在自我监督预训练中应用分层分解 (HiDe-Prompt) 的创新方法,通过一系列特定任务的提示和无指导和有指导表示的统计数据的协调,以及对比正则化策略,我们展示了 HiDe-Prompt 在持续学习中的优越性能和对预训练范式的鲁棒性。
Oct, 2023
提出了一种注意力机制的端到端关键查询方案,该方案使用输入为条件的权重来组装预置组件以生成输入为条件的提示,以解决在不断变化的训练数据中进行学习时出现的过度遗忘问题,并在多个基准测试中大幅提高了准确度。
Nov, 2022
本文提出了一种通过对抗训练启发的两阶段去偏差模型 CCPA,结合对比学习和持续提示增强的数据增强方法来缓解 PLMs 编码中的社会偏见,并通过实验证明其在去偏差性能方面超过了基线模型。
Jul, 2023
本文提出一种基于对比学习的框架,使用不同的增强 “视图” 将同一类别的输入聚类,远离来自不同类别的输入,将对比损失与标准的掩码语言建模(MLM)损失相结合,并应用于基于提示的少样本学习者,实验结果表明,我们的方法在 15 种不同的语言任务中表现优于现有的先进方法。
May, 2022
本文提出了一种无触发词的事件检测模型,通过阅读理解和提示学习将事件检测转化为两个塔模型,在 ACE2005 和 MAVEN 的两个事件检测基准数据集上,实验结果表明,与现有的基于触发词和无触发词的方法相比,所提出的方法可以取得竞争性的性能。
Jun, 2023
提出了分解提示法(Decomposed Prompting)的方法,通过将复杂任务分解成简单的子任务来解决复杂任务,并且可以针对每个子任务优化其专用提示,进一步分解复杂任务并取得更好的性能,特别是在符号推理任务和多步推理任务中。
Oct, 2022