数字病理学中是否重要上下文?
本研究评估了具有上下文学习能力的模型 Generative Pretrained Transformer 4 with Vision (GPT-4V) 在癌症图像处理中的应用,结果显示在组织亚型分类、结肠息肉亚型分类和淋巴结切片中的乳腺肿瘤检测等三项癌症组织病理学任务中,使用上下文学习可以达到或超过针对特定任务训练的神经网络的性能,且只需使用较少的样本。总结起来,本研究表明,在病理学中,基于非领域特定数据训练的大型视觉语言模型可以直接应用于解决医学图像处理任务,这使得非技术背景的医学专家在样本稀缺的领域中能够使用通用的人工智能模型。
Mar, 2024
本文对如何使用深度学习应对肿瘤组织病理图片的问题进行了综述和分析,从 130 多篇研究论文中选出机器学习策略、生存模型、现有数据集和研究中存在的挑战和限制等方面进行总结和梳理。
Dec, 2019
本文针对数字病理学领域提出了透明的人工智能算法(XAI)进行调研,将当前一些 XAI 技术与数字病理学的特定需求相结合,以指导未来的研究努力,建立跨学科讨论的共同基础。
Aug, 2020
本文提出两个新思想来提高医疗图像搜索性能,采用排名损失函数引导特征提取,将表示学习定制为图像搜索而不是学习类标签,同时引入了隔离学习的概念来增强特征提取的泛化性能,并通过最大的公共数据集实现验证,实验结果与现有技术相比具有更好的表现。
Apr, 2023
本文介绍了解释方法在数字病理学中的应用,以生成热图来解决深度学习方法在数字组织病理学分析中遇到的常见问题,包括对组织病理学数据固有的偏见。通过像素级热图的方法,我们能够精确诊断并帮助发现和消除数据中的偏见,证明解释方法是数字病理学应用开发和部署阶段中的有益工具。
Aug, 2019
使用自监督学习方法,创建了 Virchow 计算病理学的 632 百万参数深度神经网络基础模型,以解决病理学任务中缺乏数据的挑战,并在病理图像分类、癌症检测和亚型、生物标志物预测等多个任务中表现出色,显示了预训练在病理学图像数据集上的重要性和潜力。
Sep, 2023
解释性人工智能在解密人工智能决策过程中,特别是在医疗行业中起着不可或缺的作用,医生在诊断时倚赖详尽的推理,传统方法无法达到的进步。然而,这些模型的复杂性和不透明性既是优势也是劣势,他们作为 “黑匣子” 运作,其推理方式被遮蔽不可访问,增加了误诊的风险,从而可能导致患者伤害。因此,有一个迫切的需求来培养透明度,在医疗界中确保机器推出的诊断建议的逻辑是清晰可理解的,这种转向透明度不仅是有益的,更是在医疗行业中负责任的人工智能整合关键一步,确保人工智能能够帮助而不是阻碍医务人员的重要工作。
Mar, 2024
通过半自动化数据整理和引入病理学领域知识,我们扩展了数字病理学全幻灯片图像的基础模型的最新技术。我们的模型在公共和内部基准测试中表现良好,尽管使用的幻灯片数量比竞争模型少一个数量级。我们预计在更多数据和更大的模型规模下,我们的方法将进一步提高性能,并能够处理日益复杂的诊断和生物医学研究中的实际问题。
Jan, 2024