大规模的新物体字幕生成
本文提出了 Novel Object Captioner (NOC) 模型,利用外部数据源和语义嵌入使模型适用于不在现有图像字幕数据集中出现的数百种物体分类,并表现出对现有罕见分类的能力,自动评估和人类判断均表明,该模型在描述物体方面比之前的工作表现更好。
Jun, 2016
本文提出了一种零样本学习的图像字幕生成方法,通过将对象描述与语言模型解耦,在一个包含新颖对象的未知领域中生成字幕,其结果表明该方法在零样本新颖对象字幕任务中表现良好。
Apr, 2018
本文提出了一种称为开放词汇物体检测的新型物体检测问题,利用有限数量的物体分类边界框注释和图像 - 标题对来训练物体检测器,可以在更低的成本下覆盖更广泛的物体范围,成功地解决了物体检测中监督要求高的问题,并且更具实用性和效率,可以检测和定位那些未在训练过程中提供边界框注释的物体,无监督和零样本方法都无法做到如此高的准确性。
Nov, 2020
该研究创建了一个新的数据集 TextCaps,涉及 28k 张图片和 145k 个标题,用于挑战计算机视觉模型识别图像中的文本,与视觉环境进行关联,并决定要复制或释义文本的哪个部分。研究表明,这个新的数据集提供了许多前所未有的技术挑战。
Mar, 2020
本文提出了一种用于创建图像标题的方法,通过采用额外的视觉信息,包括对象检测器、识别器等来丰富标题,经大型语言模型融合,生成全面的图像描述。实验证明,该方法有效,所提供的数据集显着提高了图像 - 文本检索。
May, 2023
为了提供更高质量和更可扩展的多模态预训练数据,我们提出了 CapsFusion,一种先进的框架,利用大型语言模型从基于网络的图像文本对和合成字幕中巩固和完善信息。大量实验证明,CapsFusion 字幕在模型性能(例如,COCO 和 NoCaps 上的 CIDEr 分数提高了 18.8%和 18.3%)、样本效率(比基准计算需求少 11-16 倍)、世界知识深度和可扩展性方面展示出卓越的全面优势。这种有效性、效率和可扩展性优势使 CapsFusion 成为未来大规模多模态模型训练的有希望的候选者。
Oct, 2023
本文介绍了一种解决 2024 年 NICE 的 Topic 1 零射击图像字幕挑战的方法,通过检索增强和字幕评分方法有效地增强图像字幕,利用图像字幕模型生成的高质量字幕作为训练数据,利用基于手工模板的大规模视觉 - 语言预训练模型(OFA)执行图像字幕任务,并将字幕级策略与检索增强策略相结合,以生成更高质量、更匹配和语义丰富的字幕。基于这种方法,在排行榜上排名第一,在所有其他指标上都取得了第一名的成绩。
Apr, 2024
该研究提出了一种名为 Pseudo Caption Labeling(PCL)的简单而有效的方法,利用图像字幕模型生成对不同角度目标实例的描述,通过这些大量的数据样本进行知识提炼,以丰富目标的属性和关系等细节,从而提高模型的性能,实验表明该方法可以与任何图像字幕模型一起使用,不需要对模型架构或训练流程进行任何限制。
Mar, 2023
通过探索不同的混合策略,我们发现合成字幕能够增加网络爬取数据点的效用,并且在 38 个任务中,对于 ImageNet 表现比 DataComp 基准提高 2%, 平均值提高 4%。此外,我们发现使用合成字幕进行多模态训练时,标准图像字幕基准的性能并不可靠,还对 1.28B 图像 - 文本对的大规模分析提供了对合成文本的局限性和随着训练数据数量增加图像筛选的重要性的见解。
Jul, 2023
该研究介绍了一种基于大型语言模型的图像字幕生成方法,利用外部可视 - 名称记忆检索并提供对象名称,从而更新对象知识记忆,实现对未知对象的理解,并在各种基准测试中展现出优越性能。
Nov, 2023