Gemini 对 GPT-4V:基于定性案例的视觉 - 语言模型初步比较与结合
Gemini Pro is explored as a challenger to GPT-4V in multi-modal learning, showcasing comparable visual reasoning capabilities but with different answering styles and preferences, while Sphinx lags behind in domain generalizability; Gemini has the potential to be a strong contender according to quantitative evaluation on the MME benchmark.
Dec, 2023
我们评估了 GPT-4V 和 Gemini 这两种最先进的大型多模态模型,并利用 VQAonline 数据集进行了综合评估。通过生成关于约 2000 个视觉问题的七种元数据,我们分析了 GPT-4V 和 Gemini 的零样本性能,并确定了这两个模型的最具挑战性的问题。
Dec, 2023
利用 Gemini 和 GPT-4V 模型,本研究尝试基于两种模态医学图像数据进行分类、解释和分析,并发现 Gemini 在分类任务上略优于 GPT-4V,而 GPT-4V 的回答主要是泛化的。该研究为多模态大型语言模型在视网膜眼底检查和肺部 X 射线图像等医学图像分析专项任务中的分类和解释提供了潜力,并识别了早期调查研究中的关键限制。
Jun, 2024
本研究通过使用视觉问答(VQA)技术比较了 Gemini Pro 和 GPT-4V 在教育环境下的分类表现,研究了这两个模型在科学教育中阅读基于文本的评分标准并自动评分学生绘制模型的能力。研究发现,GPT-4V 在评分准确性和二次加权 Kappa 方面显著优于 Gemini Pro。定性分析表明,差异可能源于模型处理图像中细粒度文本以及整体图像分类性能的能力。即使调整 NERIF 方法进一步减小输入图像的大小,Gemini Pro 的表现仍不如 GPT-4V。研究结果表明,GPT-4V 在处理复杂多模态教育任务方面具有优异能力。研究结论指出,虽然两个模型都代表了人工智能的进步,但 GPT-4V 的更高性能使其成为涉及多模态数据解释的教育应用更合适的工具。
Dec, 2023
通过分析最新的模型 GPT-4V,我们深入了解大型多模态模型(LMMs)的能力和特点,发现 GPT-4V 具有处理多种输入、具有广泛通用性的能力,以及通过理解图像上的视觉标记可以创造出新的人机交互方式。我们期望这项初步探索能够激发对下一代多模态任务形式、利用和增强 LMMs 以解决实际问题以及对多模态基础模型有更好理解的未来研究方向的启发。
Sep, 2023
Google 的 Gemini 模型通过对 12 个常识推理数据集的综合分析,展现出与其他语言模型和多模态语言模型相竞争的常识推理能力,揭示了当前语言模型和多模态语言模型在解决常识问题方面所面临的共同挑战,强调了提高这些模型的常识推理能力的进一步发展的需求。
Dec, 2023
通过对多模态机制的详细分析,揭示了 GPT-4V 等模型执行视觉和语言任务的一致性与独立性,并引入了一种名为 “Vision Description Prompting” 的方法,有效提高了具有挑战性的视觉相关任务的性能。
Oct, 2023
GPT-4V 的能力和限制在视觉理解、语言理解、视觉拼图解决以及其他模态(如深度、热力、视频和音频)方面被评估,发现其在英语视觉基准上表现出色,但无法识别图像中的简单中文文本;在敏感特征问题、语言理解任务和类似图片之间差异的解决方面存在一些不一致性和限制,但通过少样本提示可以提高其性能;此外,在视频和热力等与图像类似的任务上表现出了非常好的性能。
Oct, 2023
利用现有基准数据集对 GPT-4V 的五项任务进行定量分析,并选择有代表性的样本详细评估其在社交多媒体内容理解方面的潜力,结果显示 GPT-4V 在情感分析、仇恨言论检测、假新闻识别、人口推断和政治意识形态检测等任务上展现出显著的效果,并具备图像 - 文本配对的联合理解、文化和语境意识、以及广泛的常识知识,但在涉及多语言社交多媒体理解和对社交媒体最新趋势的泛化方面仍存在挑战,同时在涉及名人和政治家知识的持续发展背景下,会出现错误信息生成的倾向,这反映了已知的幻觉问题,研究结果表明,大型多模态模型在通过分析多模态信息来增进对社交媒体内容及其用户的理解方面具有巨大的潜力。
Nov, 2023
通过引入 Mini-Gemini 框架,本论文旨在提升多模视觉语言模型(VLMs)的性能,尤其关注高分辨率视觉标记、高质量数据和 VLM 引导生成等方面,进一步挖掘了 VLMs 的潜力,使其能够同时支持图像理解、推理和生成。
Mar, 2024