通过领域适应改善 Prompt Tuning 的样本效率
本文提出一种用于数据有效且准确实现目标领域适应的测试时适应问题解决方案 (Data-efficient Prompt Tuning,DePT),其使用镜像学习方式将交互式提示信息细化到视觉 Transformer 模型中,在测试时自适应调整模型引用的提示以提升模型对目标域的表示,且具有适用于许多测试适应问题的能力。
Oct, 2022
本文考察了使用预训练的语言模型进行 Prompt tuning (PT) 的有效性,同时也研究了软提示在不同任务和不同模型之间的可迁移性,并发现神经元激活的重叠率是决定软提示可迁移性的重要指标。我们的发现表明,软提示迁移有望改善 PT,并建议进一步研究提示对模型的刺激方法
Nov, 2021
本文提出了一种名为 PPT 的框架,通过在预训练阶段添加软提示来获得更好的初始化,将预训练提示调整用于下游任务可达到或甚至优于整体微调的效果,这对于实际使用大规模预训练语言模型是一种有效和高效的方法。
Sep, 2021
本文探讨了一种在神经机器翻译中解决领域适应问题的新思路,通过构建双语短语级数据库并从其中检索相关的短语,作为输入句子的提示,从而提高翻译质量。实验结果表明,该方法可以使特定领域机器翻译 BLEU 分数提高 6.2 分,并且可以提高 11.5% 的翻译准确性,而无需额外的训练。
Sep, 2022
该研究提出了一种多级提示调优方法来增强机器阅读理解,通过利用任务特定、领域特定和上下文相关的提示,提高了输入语义在不同层次上的理解能力。同时,引入了独立性约束来避免冗余,并利用上下文相关知识生成合适的提示。在各种问答格式的 12 个基准测试中进行了广泛实验,相比最先进的方法,平均改进率达到了 1.94%。
Oct, 2023
提出了一个增强参数高效方法的少样本适应和跨领域泛化能力的通用框架,通过使用自监督模型来迅速适应各种下游少样本任务,并在一个包含 160 个不同 NLP 任务的跨领域基准上进行了实验证明,在额外的训练任务调整 PLM 的前提下最佳性能,综合分析了各种少样本跨领域场景下的参数高效方法。
Dec, 2022
本文提出了一种名为 XPrompt 的新型 Prompt tuning 模型,采用分层结构裁剪方法消除负面的 prompt token 从而优化下游任务的表现,在 SuperGLUE 测试中,在小型模型中能够接近或优于微调方法的性能水平。
Oct, 2022
通过 prompt tuning 机制,使用 backpropagation 学习 soft prompts 以提升 downstream tasks 的性能,其中 soft prompts 可以与多个 labeled examples 相结合,这种方法比 GPT-3 的 few-shot learning 更有效,并且在语言模型规模达到 10 亿以上时,method 的表现与 model tuning 相匹敌,而且具有更好的领域转移鲁棒性。
Apr, 2021
我们提出了多任务提示调整(MPT)方法,该方法通过从多个特定于任务的源提示中提取知识来首先学习一个单一可传输的提示,然后学习该共享提示的乘性低秩更新,以高效地将其适应每个下游目标任务。在 23 个自然语言处理数据集上进行的广泛实验表明,我们的方法在某些情况下优于最先进的方法,包括完全微调基线方法,尽管只有 0.035%的特定于任务的参数被调整。
Mar, 2023
该研究提出了一种新的度量方法和 PANDA 方法来解决预训练语言模型中的 prompt 转移问题,PANDA 方法使用知识蒸馏技术来迁移源 prompt 中的知识到目标 prompt 中,从而避免源知识的灾难性遗忘。实验证明,该方法在各种 PLM 尺度场景下的性能均优于传统的 prompt 转移方法和模型调参方法。
Aug, 2022