该研究介绍了一种新颖的多模态模型,可以解码任意视觉提示,通过在 RGB 图像上直接叠加视觉标记的方式,实现了对特定区域的理解,在区域理解任务上取得了最先进的性能,并提出了 ViP-Bench,一个综合评估模型在理解多个维度上的视觉提示能力的基准,为未来的研究提供了可能。
Dec, 2023
本篇论文研究了采用提示(prompt)对图片进行分类的方法,通过引入多模质询与 fine-tuning 相结合的方式,提高了图片分类的性能和领域适应性。
Apr, 2023
通过对多模态提示的直接分析,我们发现多模态提示主要通过引入可学习的偏差项来改进预训练模型在相应数据集上的识别性能,从而提出了偏差调优的方法,并证明了该方法在数据集分类信息有限的情况下较多模态提示具有更好的效果。
该文章介绍了一种基于多模式提示的创新图像质量评估方法,通过精心设计的提示,从视觉和语言数据中挖掘增量语义信息,在不同数据集上展现出竞争性能,达到了鲁棒性和准确性的提升。
Apr, 2024
本文提出了一种方法,用户只需提供每个定制主题的图像和文本,而不需要提供多张图像,通过引入 “多模态提示” 概念,将文本和图像相结合,简化用户交互,实现对对象和场景的精确定制。该方法在用户友好性和使用友好输入定制复杂对象方面超过了现有的基于微调方法。
May, 2024
本文借鉴视觉传达研究,探究了多模式信息检索的有用语义图像 - 文本关系,在自动收集和扩充数据资源的基础上,采用深度学习系统和三种度量标准(跨模态互信息、语义相关性和图像与文本的状态关系)对八种语义图像 - 文本类别进行了预测,并在一个严格的测试集上展示了该方法的可行性。
Jun, 2019
本文提出一种使用 prompt learning 的多模态学习框架,从而解决真实世界中遇到的模态缺失和模型训练资源需要的挑战。框架中含有 modality-missing-aware prompts,可插入到多模态 transformers 中处理不同的模态缺失情况,同时只需要少于 1% 的可学习参数。实验结果表明,该框架有效地提高了在各种模态缺失情况下的性能。
Mar, 2023
我们介绍了一种名为 I-Prompt 的方法,它是一种与任务无关的方法,专注于图像令牌的视觉语义信息,以消除任务预测,并在四个基准测试中达到了竞争性能,同时与最先进的方法相比显著减少了训练时间。通过大量实验,我们证明了我们的方法在各种场景下的优越性。
Mar, 2024
本文提出一种叫做上下文提示学习的框架,用于多模态学习中训练可对齐图像本地化特征并且能够适应当前任务的动态提示,通过应用于多个标准和少样本数据集上展示了比现有技术方法更优越的性能和强大的适用性。
Jul, 2023
本研究提出了分区多模态提示方法(PMPO),将软提示从单个可学习提示扩展到多个提示,以捕获视觉表示的分层上下文深度。此外,我们结合手动设计的模板和可学习的多提示,以提高方法的泛化能力,并在新类别概括、跨数据集评估和领域泛化等三项具有挑战性的任务上验证了它的有效性。
May, 2023