词典级对比性视觉引导改进语言建模
通过对具有意义的监督的视觉数据进行训练,我们发现在具有限定语言数据的情况下,视觉监督可以提高词汇学习的效率,但这种改进是有限的,并且当前的多模态建模方法未能有效利用视觉信息以构建更具人类特征的词汇表示。
Oct, 2023
通过使用 MS-COCO-ES 数据集中的英语和西班牙语的图像和字幕来训练 LSTM 语言模型,研究发现视觉基础能够提高语义相似性的理解能力,特别是在跨语言时,但是在抽象词汇方面没有显著优势。研究还指出,为了进一步提高视觉基础的语言模型的实用性,需要更多多语言数据和多语言说话者的感知基础。
Oct, 2022
通过对视觉线索进行引导,使用对比区域引导(CRG)方法可以提高视觉 - 语言模型(VLMs)在多种视觉 - 语言任务上的性能,减少模型偏见,提高准确性。
Mar, 2024
对于基于语言模型目标在大规模纯文本数据上进行训练的几种机器学习模型,在许多自然语言理解和生成任务上取得了令人印象深刻的结果。然而,对于语义的许多方面,仅仅通过 “倾听收音机” 是无法学习到的。本文系统地回顾了视觉 + 语言领域中提出的多个任务和模型。利用维特根斯坦的 “语言游戏” 思想,将这些任务分为 3 个不同的类别:1)区分性游戏,2)生成性游戏,和 3)交互式游戏。我们的文献分析提供了证据,表明未来的工作应该专注于重要的交互式游戏,在其中自然语言的交流对于解决关于物体指称和行动计划的不确定性是必要的,而物理体现则是理解场景和事件语义的重要条件。作为总体,这些是发展基于神经模型的扎根意义的关键要求。
Dec, 2023
本文将视觉与语言相结合用于语言理解,采用一种基于概率无上下文文法模型的 full-differentiable 端到端视觉理解模型,在 MSCOCO 测试标题上取得了新的最佳效果,证实了视觉基础在短语结构语法归纳中的有效性。
Sep, 2020
通过将 Contrastive 和 Generative 方法应用于 ViT 和 LLM 的表示对齐,我们提出了 CG-VLM 模型,有效地实现了视觉 - 语言的对齐,成为一种高效的指令学习器。
Nov, 2023
本论文提出了一种利用语言为约束的 Language-Regularized Concept Learner (LARC) 方法,通过从语言属性中提取约束,显著提高了自然监督环境下神经符号概念学习器的准确性,改进了之前工作在自然监督的 3D 视觉定位方面的性能,并展示了广泛的三维视觉推理能力,包括零样本组合、数据效率和可迁移性,为学习无密集监督环境的结构化视觉推理框架打下了有前景的基础。
Apr, 2024
本文提出了一种基于语言引导图表示的方法来捕获全局上下文和关系,以及跨模态图匹配策略来解决多短语视觉定位任务,实验证明我们的方法优于现有技术,并提供了开源代码。
Nov, 2019
本研究提出了一种基于 transformer 的视觉定位框架,通过建立文本条件的区分性特征和执行多阶段跨模态推理来实现精确的视觉定位,并提出了基于文本的视觉上下文信息编码器和多阶段解码器以实现最新的性能。
Apr, 2022
本文研究比较基于视觉和语言的预训练模型和仅基于文本的预训练模型的语义表示,结果发现基于视觉和语言的模型在仅语言方面无法显著优于仅基于文本的模型,因此这种多模态预训练对于提高自然语言处理的效果仍需要进一步研究。
Sep, 2021