本文提出黑盒优化框架来通过无导数优化预定义的任务提示,从而在使用预训练语言模型的服务化环境中实现更好的性能。在随机生成的子空间中进行优化,使得黑盒优化框架可以在 RoBERTa 上优化任务提示,并在少量标记样本上显着优于手动提示和 GPT-3 的上下文学习以及梯度优化方法。
Jan, 2022
本文提出了一种称为内在提示调整 (IPT) 的分析流程,用于在一个统一的低维自然语言处理任务子空间内进行自然语言处理 (PLM) 的调整,研究结果表明,在 250 维的子空间中只需调整 250 个自由参数,即可表现出高的通用性。
Oct, 2021
通过敏感性分析调查语言模型的提示作用,揭示只有少数词汇对模型预测产生了很大影响,并基于此设计了 Clustering and Pruning for Efficient Black-box Prompt Search (ClaPS) 搜索方法,该方法在搜索空间中引入聚类和修剪,集中关注具有影响力的提示词汇。通过在修剪后的搜索空间中应用简单的搜索方法,ClaPS 在各种任务和语言模型上达到了最先进的性能,超越了复杂方法的性能,并显著降低了搜索成本。该研究突出了搜索空间设计和优化在提升黑盒提示学习的实用性和效率方面的关键作用。
Oct, 2023
本文提出 BBT-RGB, 一套用于提高黑盒优化效率和性能的简单而相辅相成的技术。我们的实验结果表明,该方法在各种自然语言理解和推理任务中具有很好的有效性。
May, 2023
本研究首次探讨了基于生成式口语语言模型 (GSLM) 的提示调整范式用于语音处理任务,实验结果表明,与下游精细调整模型相比,提示调整技术使用的可调参数更少,在语音分类任务中实现了较高性能。
Mar, 2022
本文提出了一种针对预训练语言模型的黑盒离散提示学习方法,实现了在云端和边缘设备之间的高效协作,并在此基础上对各种数据大小、提示长度、训练预算、优化目标、提示可转移性和解释方面进行了深入的案例研究,证明了该算法在 8 个基准测试中取得了显著的改进。
我们提出了一种贝叶斯多任务迁移学习方法,通过后验分布的样本获得代表性的源提示,并将其聚合以构成初始目标提示,无需辅助模型,实现高度参数效率。
Feb, 2024
通过将已知分布近似为去偏的目标领域的真实分布,并从近似分布中均匀采样一定的代表性特征,生成 PLMs 的最终提示,我们的方法在基准测试中实现了最先进的性能。
Jan, 2024
本研究介绍了改进版本的黑盒调参法 BBTv2,将连续的提示优化到每一层的预训练模型中,并提出了一种分治的无梯度算法,以可比的性能在少样本学习下替代全模型调参和其他方法。
May, 2022
图领域图神经网络的简单提示调优方法在各种预训练策略中表现出较高的适应性和通用性,介绍了基于子图级别的通用提示调优方法,相比于微调方法在全样本和少样本情景下取得显著性能提升。