自闭症预测和生物标志物发现的多模态多核图学习
本研究提出了一种多模态图学习框架(MMGL)来预测疾病,该框架对每种模式的特征进行聚合,通过自适应图学习来捕获患者之间的内在联系,并在两个疾病预测任务上获得了更好的性能。
Mar, 2022
本研究提出了 MM-GTUNets,一种基于图变换器的多模态图深度学习(MMGDL)框架,用于大规模脑疾病预测,并通过验证在 ABIDE 和 ADHD-200 两个公共多模态数据集上证明了其优越性能。
Jun, 2024
机器学习在医生对病人的发展趋势获得洞察力方面受到越来越多的关注。我们提出了一种名为多模态 UMLS 图神经网络学习(MMUGL)的新方法,用于使用基于统一医学语言系统的知识图上的图神经网络学习医学概念的有意义的表示。这些表示被聚合表示整个病人就诊情况,然后输入到序列模型中以在病人的多次医院就诊的粒度上进行预测。我们通过整合先前的医学知识并考虑多种模态来提高性能。我们将我们的方法与用于不同粒度上学习表示的现有架构在 MIMIC-III 数据集上进行比较,并展示出我们的方法优于这些方法。结果表明了基于先前的医学知识的多模态医学概念表示的重要性。
Jul, 2023
多模态知识图谱补全 (MMKGC) 旨在通过协同建模大量三元组中隐藏的结构信息和实体的多模态特征,自动发现给定的多模态知识图谱中的新知识三元组。我们引入了一种新颖的 MMKGC 框架,即混合模态知识专家 (MoMoK),来学习在复杂关系环境下自适应的多模态嵌入。通过设计关系指导的模态知识专家来获取关系感知的模态嵌入,并整合多模态的预测结果以实现全面的决策。此外,通过最小化它们的互信息来解开这些专家之间的联系。在四个公开的 MMKG 基准上的实验证明了 MoMoK 在复杂情境下的出色性能。
May, 2024
提出了一种利用多模态知识图 (MMKGs) 进行多模态推理的方法 (MR-MKG),通过利用多模态知识图 (MMKGs) 跨模态地学习丰富的语义知识,显著提高了大型语言模型 (LLMs) 在多模态推理中的能力。通过在仅使用 LLM 参数的 2.25% 进行训练,MR-MKG 在多模态问答和多模态类比推理任务上取得了优越的性能,胜过了之前的最新模型。
Jun, 2024
本综述对 300 篇以上的文章进行了仔细审查,重点关注了两个主要方面的知识图谱 (KG) 相关研究,即 KG 驱动的多模式学习和多模式知识图谱 (MMKG),通过定义 KG 和 MMKG,探讨了它们的构建进展,以及 KG 驱动的多模式学习任务和 MMKG 任务,为相关研究提供了定义、评估基准和关键见解,最后讨论了当前的挑战和新兴趋势,如大型语言模型和多模式预训练策略的进展。本综述旨在作为 KG 和多模式学习研究领域的全面参考,为已经参与或考虑进行 KG 和多模式学习研究的研究人员提供洞察力,支持未来的工作。
Feb, 2024
多模态知识图谱补全的方法 AdaMF-MAT 结合结构信息、视觉信息和文本信息,通过自适应模态融合和模态对抗训练实现对不平衡模态信息的充分利用,在三个公开数据集上超过 19 个最新方法并实现了新的最佳结果。
Feb, 2024
本文介绍了一种多模式图形学习的蓝图,该模型通过将不同模态的数据集组合成图形,并使用图形来利用跨模态的依赖关系,同时利用图形作为指导提供了图形学习方法的设计方案和指导,以解决在多模态数据集中学习的基本挑战。
Sep, 2022