STLLaVA-Med:医学领域的自我训练大型语言与视觉助理
该研究介绍了一种适用于医学领域的自我监督视觉语言预训练模型Medical X-VL,展示该模型在医学领域的视觉语言任务中的超越性能,并证明了在新疾病诊断和监测人类错误等方面,Oversight AI具有广泛的应用潜力。
Aug, 2022
本文介绍了一种自我监督方法 - 对遮蔽图像建模、遮蔽语言建模、图像文本匹配和图像文本对齐进行对比学习的 M2I2 方法,应用于医学图像字幕数据集的预训练,并对下游医学 VQA 任务进行微调。该方法在三个公共医学 VQA 数据集上实现了最先进的性能。
Nov, 2022
本文提出了一种利用 PubMed Central 数据集中的图面注释数据、GPT-4 生成提问数据和新型课程学习方法一起训练的大型语言与视觉助手 (LLaVA-Med),该助手能回答有关生物医学图像的开放性研究问题,并在标准的生物医学视觉问答数据集上表现出优异的多模态会话能力。
Jun, 2023
本文提出了一种新的自我监督方法来处理医学图像视觉问答问题,通过利用医学图像标题数据集来学习输入图像和文本的单模和多模特征表示,预训练模型后将其转移到下游的医学VQA任务中,已在三个公开的医学VQA数据集上取得了最先进的表现,具有显着的准确度提高。
Jul, 2023
医学视觉问答(Med-VQA)是医疗行业中非常重要的任务之一,通过医学图像回答自然语言问题。本文开发了一种用于医学视觉问答的基准评估系统(BESTMVQA),通过此系统,用户可以自动构建Med-VQA数据集,并选择多种先进模型进行综合实证研究。该系统从临床数据中自动构建新数据集,通过在统一的实验环境中对先进模型进行评估,克服了现有工作的局限性。
Dec, 2023
本文提出了一种基于多任务自监督学习的大规模医学VQA任务框架(MISS),将医学VQA作为生成任务,并通过多任务学习对齐图像-文本特征;此外,我们通过使用大语言模型(LLMs),在单模态图像数据集上扩展单一模态图像特征空间,使得传统医学视觉领域任务数据能够应用于VLP,实验证明我们的方法在较少的多模态数据集上取得了优异结果并展示了生成式VQA模型的优势。
Jan, 2024
我们介绍了OmniMedVQA,一个来自75个不同医疗数据集的医疗视觉问答基准,其中包括12个不同的模态和超过20个不同的解剖区域。我们发现现有的大型视觉语言模型在解决这些医疗视觉问答问题时存在困难,甚至在医学专业化的模型中也表现出劣于通用领域模型的性能,这要求在生物医学领域开发更加通用和强大的大型视觉语言模型。
Feb, 2024
医学视觉语言模型结合了计算机视觉和自然语言处理,用于分析视觉和文本式医学数据。我们的论文回顾了最近在开发医学领域专用的视觉语言模型方面的进展,重点关注医学报告生成和视觉问答模型。我们提供了自然语言处理和计算机视觉的背景,解释了如何将两个领域的技术集成到视觉语言模型中,以实现对多模态数据的学习。我们讨论的关键领域包括医学视觉语言数据集的探索,最近有价值的医学视觉语言模型中所采用的体系结构和预训练策略的深入分析,以及评估指标在医学报告生成和视觉问答性能评估中的综合讨论。我们还强调了当前的挑战,并提出了未来的发展方向,包括增强临床有效性和解决患者隐私问题。总的来说,我们的综述总结了最近在开发视觉语言模型以利用多模态医学数据改进医疗应用方面的进展。
Mar, 2024
通过在医学领域中使用大型视觉和语言模型,在三个不同的生物医学和放射学多模态视觉和文本数据集上进行三个阶段的参数高效训练后,提出了一种医学视觉语言模型。这个模型在SLAKE 1.0医学问答(MedVQA)数据集上实现了最新的性能,整体准确率为87.5%,并在另一个MedVQA数据集VQA-RAD上展现了强大的性能,整体准确率为73.2%。
Apr, 2024
我们的研究在生物医学领域提出了一个新的指导数据集,利用医学图像文本对,提出了一种新的图像编码策略,通过使用分层表示改善了精细的生物医学视觉理解,并且开发了LLama3-Med模型,在生物医学视觉问答基准测试中实现了最先进的零-shot性能,相比于以前的方法,平均性能提高超过10%,这些进展为医疗专业人员提供了更准确可靠的工具,弥补了当前多模态对话助手中的差距,并促进了医疗人工智能的进一步创新。
Jun, 2024