通过领域适应改善 Prompt Tuning 的样本效率
通过将已知分布近似为去偏的目标领域的真实分布,并从近似分布中均匀采样一定的代表性特征,生成 PLMs 的最终提示,我们的方法在基准测试中实现了最先进的性能。
Jan, 2024
本文提出一种用于数据有效且准确实现目标领域适应的测试时适应问题解决方案 (Data-efficient Prompt Tuning,DePT),其使用镜像学习方式将交互式提示信息细化到视觉 Transformer 模型中,在测试时自适应调整模型引用的提示以提升模型对目标域的表示,且具有适用于许多测试适应问题的能力。
Oct, 2022
本文考察了使用预训练的语言模型进行 Prompt tuning (PT) 的有效性,同时也研究了软提示在不同任务和不同模型之间的可迁移性,并发现神经元激活的重叠率是决定软提示可迁移性的重要指标。我们的发现表明,软提示迁移有望改善 PT,并建议进一步研究提示对模型的刺激方法
Nov, 2021
本文提出了一种名为 PPT 的框架,通过在预训练阶段添加软提示来获得更好的初始化,将预训练提示调整用于下游任务可达到或甚至优于整体微调的效果,这对于实际使用大规模预训练语言模型是一种有效和高效的方法。
Sep, 2021
本文探讨了一种在神经机器翻译中解决领域适应问题的新思路,通过构建双语短语级数据库并从其中检索相关的短语,作为输入句子的提示,从而提高翻译质量。实验结果表明,该方法可以使特定领域机器翻译 BLEU 分数提高 6.2 分,并且可以提高 11.5% 的翻译准确性,而无需额外的训练。
Sep, 2022
该研究提出了一种多级提示调优方法来增强机器阅读理解,通过利用任务特定、领域特定和上下文相关的提示,提高了输入语义在不同层次上的理解能力。同时,引入了独立性约束来避免冗余,并利用上下文相关知识生成合适的提示。在各种问答格式的 12 个基准测试中进行了广泛实验,相比最先进的方法,平均改进率达到了 1.94%。
Oct, 2023
我们提供了一个名为 “Concentration” 的面向领域通用的提示优化目标,它通过增加注意力强度并减少注意力分布的波动,从而改善了多源领域通用设置中软提示和硬提示通用性优化方法的准确性,同时保持了满意的领域内性能。
Jun, 2024
本文提出了一种名为 XPrompt 的新型 Prompt tuning 模型,采用分层结构裁剪方法消除负面的 prompt token 从而优化下游任务的表现,在 SuperGLUE 测试中,在小型模型中能够接近或优于微调方法的性能水平。
Oct, 2022
通过 prompt tuning 机制,使用 backpropagation 学习 soft prompts 以提升 downstream tasks 的性能,其中 soft prompts 可以与多个 labeled examples 相结合,这种方法比 GPT-3 的 few-shot learning 更有效,并且在语言模型规模达到 10 亿以上时,method 的表现与 model tuning 相匹敌,而且具有更好的领域转移鲁棒性。
Apr, 2021