领域泛化的软提示生成
通过使用深度视觉提示以解决域不变性问题,结合语言提示以确保类别可分离性,以及自适应权重机制来平衡域不变性和类别可分离性,本文介绍了一种新的提示学习策略,并通过广泛实验证明深度视觉提示有效提取域不变特征,显著提高深度模型的泛化能力,在三个数据集上取得了最先进的性能。
Apr, 2024
大规模视觉语言模型(VLMs)在自然视觉任务中表现出色,推动跨领域的研究者探索特定领域的 VLMs。然而,构建强大的特定领域 VLMs 需要大量的注释数据、大量的电能和计算资源,这些主要是工业界可用的,却制约了学术界对 VLMs 的研究。为了解决这个挑战,促进可持续和公平的 VLMs 研究,我们提出了广义领域提示学习(GDPL)框架。GDPL 通过小规模的特定领域基础模型和最少的提示样本,使 VLMs 的强大识别能力从自然视觉转移到特定领域,而无需大量数据或资源。通过四元网络,GDPL 利用特定领域的基础模型和最少的提示样本为语言分支赋予领域知识,揭示特定领域视觉特征与自然视觉上下文嵌入之间的跨模态关系。同时,GDPL 通过生成的视觉提示特征的分层传导,将视觉分支引向特定领域,建立与视觉语言关系匹配的基础。此外,为了充分发挥 VLMs 的领域自适应潜力,我们引入了一种新颖的低秩自适应方法。对遥感、医学成像、地质学、合成孔径雷达和流体动力学等不同领域的大量实验证明了 GDPL 的有效性,并展示了在提示学习范式下实现最先进的领域识别性能的能力。我们的框架为可持续和包容性的 VLMs 研究铺平了道路,消除了学术界与工业界之间的障碍。
May, 2024
本研究提出了一种名为 SwitchPrompt 的轻量级提示方法,通过使用可训练的闸门提示和领域特定关键字,将预训练的通用领域语言模型来适应各种低资源域,实验结果表明 SwitchPrompt 减少了领域特定语言模型预训练的需求,并在三种文本分类基准测试中显著提高了准确率,比基准提示方法训练出的领域特定对应物最高可提高 10.7%。
Feb, 2023
该研究介绍了一个新的提高医学图像识别性能的方法,利用预训练视觉 - 语言模型和伪提示生成来实现多标签分类和自动诊断,对比实验证明了其在多标签胸部放射图数据集上的卓越性能。
May, 2024
我们提出了一种名为 Prompt-driven Latent Domain Generalization(PLDG)的新型无标签领域通用化(DG)框架,通过无监督领域发现和提示学习,实现了对医学图像分类的领域通用化,并在三个医学图像分类任务和一个去偏任务上展开了广泛实验,证明了我们的方法在不依赖领域标签的情况下实现了与传统 DG 算法相媲美甚至更好的性能。
Jan, 2024
本文提出一种基于提示的文本生成方法(PTG),采用预训练语言模型,在面对数据匮乏的情况下通过学习一组源提示并将其转移为目标提示执行目标生成任务,设计了一个自适应注意机制以得出目标提示,实验结果表明 PTG 针对多个任务产生了有竞争力的结果,源提示已开放并可用于未来研究。
May, 2022
本论文提出了基于 prompt learning 的全新方法 DoPrompt,利用 domain prompts 嵌入源域的知识进行目标域的预测,针对视觉转换器 (ViT) 在领域泛化方面存在的问题,经过大量实验证明本文方法在四个基准数据集上获得了 1.4% 的精度提高,是基于 ViT 骨干结构的状态 - of-the-art 算法的 3.5 倍。
Aug, 2022
通过将已知分布近似为去偏的目标领域的真实分布,并从近似分布中均匀采样一定的代表性特征,生成 PLMs 的最终提示,我们的方法在基准测试中实现了最先进的性能。
Jan, 2024
在本研究中,我们调查了小语言模型(具有不到 10 亿参数)与 prompt-learning 范例相结合,在零样本和少样本场景下针对零售业中客户 - 代理商互动的领域特定文本分类的潜力。我们的评估结果显示,在少样本设置下进行基于提示的模型微调时,220M 参数的典型小语言模型 T5-base 可以在有限的标记数据(高达全数据的 15%)上实现约 75% 的准确性,显示了小语言模型与 prompt-learning 的巨大潜力。基于此,我们进一步验证了主动少样本抽样和 prompt-learning 流程中的集成策略对显著性能提升的有效性。此外,在固定模型的零样本设置中,我们强调了一个关键的观察结果,即尽管具有约 1540B 参数的 GPT-3.5-turbo 可以达到 55.16% 的准确性,但当仅有 0.5% 参数的 FLAN-T5-large 使用经过优化的提示时,其准确性超过 31%,相比使用未经优化提示的准确性提升了近 13%。我们的发现强调了使用小语言模型进行 prompt-learning 的分类任务中的潜力,强调了主动少样本抽样和集成策略在少样本设置中的好处,并强调了零样本设置中提示工程的重要性。
Sep, 2023
本文介绍了一种软提示学习的方法,用于 Vision & Language 模型。该方法通过使用第二交叉熵损失来最小化学习的软提示与手工工程提示之间的距离,进而提高模型性能,并能够训练虚拟类。在 11 个数据集上进行的广泛评估表明,该方法显著优于所有先前的软提示工作,并在大多数测试数据集上匹配和超越手工制作提示和 CLIP 的新类准确性。
Oct, 2022