该研究论文介绍了一种名为 Open-world Prompt Tuning (OPT) 的问题设置,通过引入 Decomposed Prompt Tuning framework (DePT) 解决 OPT 问题,并提出了一种名为 Decomposed Context Optimization (DeCoOp) 的新型 prompt tuning 方法,实验证明 DePT 的有效性,并显示 DeCoOp 相较于当前最先进的方法有着 2% 的平均准确率的提升。
Jun, 2024
通过将软提示分解为较短的软提示和一对低秩矩阵并使用两个不同的学习率进行优化,我们提出了分解提示调优(DePT)。通过在 23 个自然语言处理(NLP)和视觉语言(VL)任务上的广泛实验,我们证明了 DePT 在某些情景下优于最先进的参数高效微调方法,包括完全微调基线。此外,我们的进一步研究揭示了 DePT 在模型规模增大时更加高效,并展示了 DePT 在少样本学习设置和各种模型架构和规模中的适应性。
Sep, 2023
本文提出一种用于数据有效且准确实现目标领域适应的测试时适应问题解决方案 (Data-efficient Prompt Tuning,DePT),其使用镜像学习方式将交互式提示信息细化到视觉 Transformer 模型中,在测试时自适应调整模型引用的提示以提升模型对目标域的表示,且具有适用于许多测试适应问题的能力。
Oct, 2022
该论文提出了 DPT 作为针对区分性 PLMs 的 prompt tuning 框架,并将自然语言处理任务转换为区分性语言建模问题。通过全面的文本分类和问答实验表明,与 vanilla fine-tuning 相比,DPT 在全集和低资源环境下都能显著提高性能,并解决了调整大型 PLMs 中的不稳定问题。
May, 2022
我们提出了多任务提示调整(MPT)方法,该方法通过从多个特定于任务的源提示中提取知识来首先学习一个单一可传输的提示,然后学习该共享提示的乘性低秩更新,以高效地将其适应每个下游目标任务。在 23 个自然语言处理数据集上进行的广泛实验表明,我们的方法在某些情况下优于最先进的方法,包括完全微调基线方法,尽管只有 0.035%的特定于任务的参数被调整。
Mar, 2023
本篇论文旨在研究在密集检索中,如何利用深度提示调整来减少部署成本,提出了两种与预训练语言模型和密集检索任务兼容的方法,并在 MS-MARCO 和自然问题数据集上取得了优于之前最先进模型的效果。
Aug, 2022
本研究提出 Decoder Tuning 方法,通过优化解码器网络来适应具有冻结参数的预训练模型,并只需要一个 API 查询,可以实现一千倍的加速。
Dec, 2022
本文介绍了一种基于多模态深度共生的 Prompt Tuning 方法,通过学习一个模型无关的变换网络,实现了深度的双向自然语言和视觉信息融合,在图像识别和领域外泛化方面表现优异。
Jun, 2023
该论文提出了一种名为 DPT 的创新型视觉语言模型微调范式,它通过文本调整和任务调整重新定义视觉问题的目标函数形式来共同优化 VQA 模型的预训练和微调目标,以提高预训练 VL 模型对于下游任务的有效适应性,实验结果表明,DPT 在准确性方面显著优于微调对应物,无论是在完全监督(2.68%)还是零射击 / 少射击(超过 31%)的情况下。
SPT 是一种半参数化的提示微调方法,其包含一个内存库,可以根据离散提示检索记忆提示,并通过 Fine-Tuning GLUE 数据集以及在五个自然语言处理任务类别下评估零 - shot 泛化以及在 SuperGLUE 数据集上预训练,众多实验证明了其有效性。