Dec, 2023
Quilt-LLaVA:通过从开源组织组织的组织病理学视频中提取本地化的叙述来进行视觉指导调整
Quilt-LLaVA: Visual Instruction Tuning by Extracting Localized
Narratives from Open-Source Histopathology Videos
TL;DR通过Quilt-Instruct数据集和Quilt-LLaVA模型,本研究提出了一种能够在全幅切片图像中进行诊断推理和空间感知的多模态组织病理学问答系统。该模型在多个公共组织病理数据集上表现出比SOTA模型高出超过10%的性能。