CP-Tuning 是第一个无需手动工程任务特定提示和说明符进行微调的端到端对比提示调整框架,它与任务不变的连续提示编码技术和完全可训练的提示参数相集成。
Apr, 2022
本文提出了一种名为 PPT 的框架,通过在预训练阶段添加软提示来获得更好的初始化,将预训练提示调整用于下游任务可达到或甚至优于整体微调的效果,这对于实际使用大规模预训练语言模型是一种有效和高效的方法。
Sep, 2021
本研究探讨了在语言模型提示方法中继续预训练阶段是否能够提高零 - shot 以及少量样本情况下语言模型的性能,并通过大规模实验表明使用多任务学习的实时递归预训练策略可将零 - shot 及几轮试验下的效果提高至 31% 相对性能,然而使用元学习方法的继续预训练阶段的性能不佳。我们提出了针对不同应用的具体推荐,以优化语言模型的性能。
Oct, 2022
本文提出 ProFiT 管道,研究 Prompt-Based Finetuning 的跨语言能力,发现在语言理解中 Prompt-Based Finetuning 的效果和适用性优于 Vanilla Finetuning,且在少样本场景下表现出更大的优势。
Jul, 2023
本研究提出一种无监督的精调框架,用于快速和直接地向未标记的目标数据进行深度学习模型的预训练,并在图像分类、情感分析和自然语言推理任务中实现了持续的改进。
Apr, 2023
研究了 prompt learning 对临床应用决策任务的可行性,并与传统的微调方法进行了直接比较。结果部分符合 prompt learning 文献,提示学习能够在可训练参数更少和需要更少的训练数据的情况下与传统微调相匹配或改进,可以作为一种可替代越来越大的预训练语言模型微调的较低计算资源成本,适用于临床环境。
May, 2022
本论文提出了一种名为 Fast Prompt Tuning 的技术,通过将 partial PLMs 中的 soft prompts 转化到整个 PLM 中来提高 prompt tuning(PT)的训练效率,该技术的应用可以在保持性能的同时节省 30% 的训练计算资源。
Nov, 2022
该论文提出了一种统一的 Prompt Tuning (UPT) 框架,通过从非目标自然语言处理数据集中明确捕获提示语义,使 BERT 风格模型在少样本文本分类方面取得更好的性能,该框架引入了一种新的编程范例 Prompt-Options-Verbalizer,强制 PLMs 捕获任务不变提示知识,经过多任务学习后,该模型可以更好地针对任何不同的低资源任务进行提示调整。
本文考察了使用预训练的语言模型进行 Prompt tuning (PT) 的有效性,同时也研究了软提示在不同任务和不同模型之间的可迁移性,并发现神经元激活的重叠率是决定软提示可迁移性的重要指标。我们的发现表明,软提示迁移有望改善 PT,并建议进一步研究提示对模型的刺激方法
Nov, 2021
通过 Instruction Continual Pre-training (InsCP) 的方法,可以在维持对话能力的同时,将大型语言模型(LLMs)调整为适应其他语言,从而避免对有害内容过滤的能力下降,且只需要 0.1 十亿个高质量的指令遵循数据的资源消耗相对较低。
May, 2024