HEALNet -- 混合多模态融合为异构生物医学数据
我们介绍一种名为 HetMed 的图形框架,可以将多模态医疗数据融合在一起,这通过构造一个多重网络来实现,该网络涵盖患者的多种非图像特征,以系统的方式捕捉患者之间的复杂关系,从而实现更准确的临床决策,并在各种实际数据集上证明了 HetMed 的优越性和实用性。
Nov, 2022
一个新的端到端框架 FORESEE,通过挖掘多模态信息来稳健地预测患者生存情况,同时利用细胞水平、组织水平和肿瘤异质性水平的丰富语义特征,解决了多模态数据的缺失问题,并通过交叉尺度特征融合方法,提高了病理图像特征表征能力。
May, 2024
这篇综述研究了使用人工智能技术将多模式医疗数据进行融合,以开发不同临床应用的 AI 方法。通过对 34 个相关研究进行数据提取和分析,发现多模式融合模型在诊断和预测疾病等临床应用方面显著优于单一模式模型。
Oct, 2022
我们提出了一种名为 AutoFM 的神经架构搜索(NAS)框架,用于自动搜索对多样输入模态和融合策略进行编码的最佳模型架构,并在真实世界的多模式 EHR 数据和预测任务上进行了彻底实验,结果表明我们的框架不仅在现有最先进的方法上实现了显著的性能改进,还有效地发现了有意义的网络架构。
Jan, 2024
这篇论文综述如何运用多模态深度学习技术提取和汇总多模态信息,以实现更客观、定量化的计算机辅助临床决策,并探讨了其在疾病诊断和预后中的应用、性能表现、挑战和未来发展方向。
Mar, 2022
多模医学成像在临床诊断和研究中起着关键作用,深度学习多模态融合技术在提高医学图像分类方面显示出强大的工具。本综述对基于深度学习的医学分类任务中的多模态融合的发展进行了彻底分析,包括不同融合方案和网络架构的性能评估,讨论了相关挑战和未来研究方向。
Apr, 2024
基于多模态融合模型,结合病理图像和基因组数据,本文提出一种适用于癌症生存分析的病理基因异质图模型(PGHG)。通过生物学先验知识,该模型实现了特征提取、生存预测和可解释性展示等功能,并在多个癌症数据集上证明了其性能优越性。
Apr, 2024
基于 ResNet-152 和 SGCN, 结合多模态多任务相关学习 (MultiCoFusion) 的多模态融合框架可用于肿瘤的生存分析和癌症等级分类,基于 The Cancer Genome Atlas (TCGA) 的实验结果表明,MultiCoFusion 的表现优于传统的特征提取方法。
Jan, 2022
通过创新的多模态深度学习模型,本文旨在深度整合医学图像和临床报告等异构信息。使用卷积神经网络提取高维特征,捕捉关键视觉信息;利用双向长短时记忆网络结合注意机制,在临床报告文本中进行深度语义理解,准确捕捉与疾病相关的关键陈述。通过设计的多模态融合层,有效实现图像和文本的联合表征学习。实证研究中,利用大型医学图像数据库和相应的临床报告进行模型训练和验证,实验结果明显展示了多模态深度学习模型在疾病分类、损伤定位和临床描述生成方面的显著优越性。
May, 2024