通过实证研究,发现 prompt-tuning 可以成为良好的 long-tailed 学习器,并探究了该方法背后的关键因素是分类器结构和参数化,而非输入结构。该结果也适用于 few-shot 分类任务。
May, 2022
该研究提出了一种名为 Late Prompt Tuning (LPT) 的 PETuning 方法,它将追加的提示插入到 PTM 的中间层而非输入层或所有层,并通过一个神经提示生成器获得实例依赖的提示,具有更快的训练速度和更低的内存成本,可在全数据和少样本场景下实现与全模型调整和其他 PETuning 方法竞争的性能。
Oct, 2022
本研究提出了一种统一框架 —— 基于类特定嵌入损失的提示调整(LMPT)—— 用于解决多标记视觉识别中长尾类别的问题,结合文本和图像,引入嵌入损失函数,以类感知的软间距和重新权重为基础,学习特定于类别的上下文,采用分布平衡型损失函数作为分类损失函数,进一步提高了小类别的性能,与前人研究方法和零样本 CLIP 相比,结果表明所提出的方法显著优于先前的最先进方法。
May, 2023
本文提出了一种名为 PPT 的框架,通过在预训练阶段添加软提示来获得更好的初始化,将预训练提示调整用于下游任务可达到或甚至优于整体微调的效果,这对于实际使用大规模预训练语言模型是一种有效和高效的方法。
Sep, 2021
本研究提出了一种名为 “Approximated Prompt Tuning” 的方法,用以提高视觉语言预训练模型的迁移学习效率,其基于软提示令牌的独立信息扩散步骤,从而有效地避免了昂贵的全局关注建模,并显著降低了计算复杂度。
Jun, 2023
本文提出一种叫做测试时提示调整 (TPT) 的方法,可在单个测试样本上实时学习适应性提示,优化提前提供的 CLIP 模型动态调整提示, 以最小化模型预测时的不确定度,提高 CLIP 模型的泛化能力。实验结果表明,TPT 方法在自然情况下的 zero-shot top-1 准确率比以往方法的提升 3.6%,并达到了使用额外培训数据的最新先进方法的性能水平。
Sep, 2022
使用深度学习进行医学图像分析时,由于有限的标记数据和高昂的注释成本,往往面临挑战。本文提出了一种将选择性标记与提示调整相结合的框架(SLPT),以提高有限标签下的性能,同时保持预训练模型不变,通过仅使用有限标记数据对这些参数进行更新。该框架包括了一个特征感知提示更新器,以引导提示调整,并采用基于提示的不确定性的无监督多样性选择和有监督选择。此外,我们提出了一种多样化的视觉提示调整策略,为选择性标记提供多提示的不同预测。在肝肿瘤分割任务上,我们的方法取得了最先进的性能,仅使用可调参数的 6%,仅标记了 5% 的数据即可达到全数据性能的 94%。
Aug, 2023
通过优化,使用 P-Tuning v2 方法能够在广泛的模型尺度和自然语言理解任务中取得与微调相当的性能,只需调整 0.1%-3% 的参数。
Oct, 2021
我们提出了多任务提示调整(MPT)方法,该方法通过从多个特定于任务的源提示中提取知识来首先学习一个单一可传输的提示,然后学习该共享提示的乘性低秩更新,以高效地将其适应每个下游目标任务。在 23 个自然语言处理数据集上进行的广泛实验表明,我们的方法在某些情况下优于最先进的方法,包括完全微调基线方法,尽管只有 0.035%的特定于任务的参数被调整。
Mar, 2023
通过引入 PEL 方法,该研究通过少于 20 个时期的微调,无需额外数据即可适应长尾识别任务,并通过在分类器初始化中采用 CLIP 文本编码器的新颖技术解决了过度拟合问题,从而持续优于之前的最佳方法。
Sep, 2023