FashionVQA:一种特定领域的视觉问答系统
本篇综述介绍了视觉问答(VQA)任务,包括基于自然语言描述的图像识别以及机器学习模型的研究,主要探讨了近期在该领域中公布的数据集、新的深度学习模型以及基于 VQA 模型的一些应用研究和挑战。
Aug, 2019
本文介绍了 OpenViVQA:首个包含越南语开放式答案的大规模 VQA 数据集,包括 11,000 + 图像和 37,000+ 问答对,并提出了三个融合图像和答案信息的方法(FST,QuMLAG 和 MLPAG),并使用这些融合的特征构建答案,旨在促进研究社区针对越南语这类低资源语言开发出更广义的算法,结果与 SOTA 模型竞争力相当。
May, 2023
本文针对视觉问答任务进行综述,比较传统的视觉元素和常识知识融合的方法。并对数据集进行了评估,结合 Visual Genome 数据集中的图像结构注释研究了不同复杂度的问答对。最后讨论了未来发展方向,重点关注结构化知识库和自然语言处理模型的连接。
Jul, 2016
本文提出了一种新颖的 VQA 有监督多模态域自适应方法,通过考虑所有模态在一起以及单独处理每个单独模态来对齐源域和目标域的数据分布,以学习跨不同领域和模态的联合特征嵌入,通过在 VQA 2.0 和 VizWhiz 数据集上进行广泛实验,表明了我们所提出方法在这个具有挑战性的 VQA 域自适应设置中胜过了现有的最先进的方法。
Nov, 2019
通过调查 Visual Question Answering(视觉问题回答)领域的复杂性,本研究提供了对 VQA 数据集和方法的详细分类,展示了该领域的最新趋势、挑战和改进方向,并将 VQA 推广到多模态问答,探索与 VQA 相关的任务,并提出了一系列未来研究的开放性问题。
Nov, 2023
对于图像中的问题,通过使用语言指导(LG)如解释、图像标题、场景图等方面的共识知识、世界知识和理解创意和概念来回答问题更准确;提出了一种多模态框架,使用 CLIP 和 BLIP 模型通过 A-OKVQA、Science-QA、VSR 和 IconQA 数据集的多选问题回答任务进行了基准测试,语言指导使得 CLIP 的性能提高了 7.6%,BLIP-2 的性能提高了 4.8%;使用所提出的语言指导在 Science-QA、VSR 和 IconQA 数据集上也观察到了持续的性能改进。
Oct, 2023
本研究提出了一种基于机器阅读理解的方法,通过将视觉和文本特征统一到自然语言中以解决视觉问答中的多模态特征融合问题,并能够处理大规模外部知识库等基于知识的问题。实验结果表明,该方法在三个数据集上性能具有可比性,此为利用文本和自然语言处理技术解决视觉问答问题的一步。
Nov, 2018
通过提供来自知识图谱中提取的相关外部知识,我们通过增强问题并实现可变数量的三元组,为知识增强的视觉问答模型带来了平均 4.75%的准确匹配得分提升,并展示了其在推理能力和泛化能力方面的优势。
Jun, 2024