PreSTU:场景文本理解的预训练
本文研究了视觉 - 语言联合表征学习在场景文本检测中的应用,提出了利用视觉 - 语言预训练学习得到的上下文化联合表征来提高场景文本检测器的性能,通过三个 pretext tasks 来进行预训练,在标准基准测试中证明了该方法能够显著提高各种代表性的文本检测器的性能。
Apr, 2022
本文提出了一种弱监督的预训练方法 oCLIP,该方法通过联合学习视觉和文本信息来获取有效的场景文本表示,并能从弱注释文本中学习,可以有效地应对 OCR 任务。实验证明,该方法在多个公共数据集上都优于现有的预训练技术。
Mar, 2022
该论文研究了使用 Transformer 模型的大规模预训练模型在图像与语言(V+L)方面的应用,通过评估和探索内部机制,提供了关于多模式预训练及其注意力头的启示和指导。
May, 2020
本研究探讨了图像与语言预训练是否可以提高模型在需要隐含视觉推理的文本任务上的性能,提出了一系列用于探测文本编码模型视觉推理能力的任务,并说明了采用多模态预训练方法可以提高文本编码器的性能。
Mar, 2023
提出了一种新的多模态体系结构 Layout-Aware Transformer(LaTr)来进行场景文本视觉问答(STVQA),并提出了一种单一目标的预训练方案,该方案仅需要文本和空间线索。 LaTr 通过将语言和布局信息联系起来,可以学习各种空间线索,从而提高了对 OCR 错误的鲁棒性,并在多个数据集上优于最先进的 STVQA 方法。
Dec, 2021
本文提出了一种 Visual-Semantic Transformer 的模型,通过 Transformer 模块和视觉 - 语义对齐模块从视觉特征映射中提取出主要的语义信息,然后将语义信息和视觉特征序列组合成伪多域序列,进而通过交互模块增强视觉特征和语义信息之间的相互作用,从而实现文本识别。实验结果表明,该模型在包括正常 / 不规则文本识别数据集在内的七个公共基准上达到了最先进水平。
Dec, 2021
本文描述了一种使用编码器 - 解码器建模框架来联合预训练语音和文本用于语音翻译和识别的方法,其中包括四个自监督和有监督的子任务以进行跨模态学习,其贡献在于将文本语料库中的语言信息整合到语音预训练中。
Apr, 2022
UDoc 是一个新的文档理解的统一预训练框架,它通过使用三个自监督损失约束表示模型,将单词和视觉特征作为输入,使神经网络从无标签的数据中学习到更好的文档表示,并取得了下游任务的提升。
Apr, 2022
基于检测导向的图像 - 文本预训练的新的开放词汇检测方法用于填补图像级预训练和开放词汇对象检测之间的差距,通过使探测器头从嘈杂的图像 - 文本对中学习,我们的方法能够利用对比损失学习到新出现的对象 - 语义线索,在 LVIS 和 COCO 基准测试中均获得了非常有竞争力的结果,并在转移检测设置中显著优于基线。
Sep, 2023
给定一张文档图像,本研究提出了一种名为 ViTLP 的视觉引导生成文本 - 布局预训练模型,通过生成交错文本和布局序列来优化层次化语言和布局建模目标,以处理任意长度的文字密集型文档,并有效应用于各种下游的视觉文档理解任务。
Mar, 2024