多模态知识图谱
提出了一种利用多模态知识图 (MMKGs) 进行多模态推理的方法 (MR-MKG),通过利用多模态知识图 (MMKGs) 跨模态地学习丰富的语义知识,显著提高了大型语言模型 (LLMs) 在多模态推理中的能力。通过在仅使用 LLM 参数的 2.25% 进行训练,MR-MKG 在多模态问答和多模态类比推理任务上取得了优越的性能,胜过了之前的最新模型。
Jun, 2024
本综述对 300 篇以上的文章进行了仔细审查,重点关注了两个主要方面的知识图谱 (KG) 相关研究,即 KG 驱动的多模式学习和多模式知识图谱 (MMKG),通过定义 KG 和 MMKG,探讨了它们的构建进展,以及 KG 驱动的多模式学习任务和 MMKG 任务,为相关研究提供了定义、评估基准和关键见解,最后讨论了当前的挑战和新兴趋势,如大型语言模型和多模式预训练策略的进展。本综述旨在作为 KG 和多模式学习研究领域的全面参考,为已经参与或考虑进行 KG 和多模式学习研究的研究人员提供洞察力,支持未来的工作。
Feb, 2024
构建了 AspectMMKG,是第一个具有与方面相关的图像的多模态知识图谱,利用 AspectMMKG 改善了实体方面链接任务的性能,并进一步提出了一个方面相关图像检索模型。
Aug, 2023
本研究提出了一种名为 MMKGR 的新型模型,其中包含一种统一的门 - 关注网络和一种补充特征感知的强化学习方法,通过有效的多模态补充特征和多次迭代推理,能够更好地实现知识图谱方面的任务,与现有方法相比推理性能更好。
Sep, 2022
多模态知识图谱补全 (MMKGC) 旨在通过协同建模大量三元组中隐藏的结构信息和实体的多模态特征,自动发现给定的多模态知识图谱中的新知识三元组。我们引入了一种新颖的 MMKGC 框架,即混合模态知识专家 (MoMoK),来学习在复杂关系环境下自适应的多模态嵌入。通过设计关系指导的模态知识专家来获取关系感知的模态嵌入,并整合多模态的预测结果以实现全面的决策。此外,通过最小化它们的互信息来解开这些专家之间的联系。在四个公开的 MMKG 基准上的实验证明了 MoMoK 在复杂情境下的出色性能。
May, 2024
通过提出一种基于 Transformer 架构的 SNAG 方法,结合多模态实体特征在知识图谱中进行鲁棒的集成,本研究在多模态预训练的基础上,展示了在多模态知识图谱完成和多模态实体对齐两个任务中的领先性能,同时还具有增强其他现有方法的稳定性和性能改进的功能。
Mar, 2024
提出了一种用于学习具有实体属性的知识图谱嵌入的模块化框架,其中模块可以对不同模态的属性数据进行编码,并且支持具有缺失属性的实体。在使用包含大约两百万三元组的生物医学 KG 进行训练和评估时,发现在给定低程度实体的情况下,与不考虑属性数据的基准方法相比,该方法在药物 - 蛋白质相互作用预测任务中的表现较好。
Jun, 2023
该研究提出了一种使用多种神经编码器的多模态知识库嵌入方法,将它们与现有关系模型相结合,学习实体和多模态数据的嵌入,进而提出了一种新的多模态插值模型,用于从知识库中的信息生成丢失的多模态值,并通过用户研究评估了其生成的多模态值的质量。
Sep, 2018