知识图谱上的元推理
本文提出了一种元学习式的多跳知识图谱(KG)推理方法(Meta-KGR),适用于少样本关系中的查询回答(QA)任务,通过学习适应于不同关系的元参数,提高模型的推理能力,实验表明,在 Freebase 和 NELL 数据集上,Meta-KGR 在少样本场景下优于现有技术方法。
Aug, 2019
本文研究少样本时间知识图谱推理问题,提出了 MetaTKGR 框架,通过时间监督信号对未来事实进行快速反馈,动态调整采样策略,并提供时间适应正则化器来稳定元时间推理。 在三个真实世界的时间知识图上进行的大量实验证明了 MetaTKGR 相对于最先进的基线模型的卓越性能。
Oct, 2022
本研究基于 Meta Relational Learning 框架,针对在知识图谱上进行少样本关系预测的挑战,通过转移关系特异的元信息来实现优化学习,最终在少样本关系预测基准测试中取得了最先进的成果。
Sep, 2019
通过构建自然语言处理任务中的大型语言模型,研究了知识推理的细节和方法,并提出了一个全面的知识推理框架 Chain-of-Knowledge(CoK),通过基于知识图的规则挖掘生成数据集,并结合人类知识探索过程的试错机制来提高模型学习的效果。实验证明,CoK 不仅在知识推理上,还在一般推理基准中具有优异的效果。
Jun, 2024
本研究提出了一种名为 MMKGR 的新型模型,其中包含一种统一的门 - 关注网络和一种补充特征感知的强化学习方法,通过有效的多模态补充特征和多次迭代推理,能够更好地实现知识图谱方面的任务,与现有方法相比推理性能更好。
Sep, 2022
提出了一种利用多模态知识图 (MMKGs) 进行多模态推理的方法 (MR-MKG),通过利用多模态知识图 (MMKGs) 跨模态地学习丰富的语义知识,显著提高了大型语言模型 (LLMs) 在多模态推理中的能力。通过在仅使用 LLM 参数的 2.25% 进行训练,MR-MKG 在多模态问答和多模态类比推理任务上取得了优越的性能,胜过了之前的最新模型。
Jun, 2024
本文提出了一种新的方法,通过迭代学习来注入规则并学习表示以充分利用规则和嵌入,取得了高效性和可扩展性的良好平衡,并通过两个公共数据集的评估,优于当前最先进方法,提高了均值倒数排名(MRR)2.7%和 4.3%。
Jan, 2023
本研究介绍了基于知识图谱的多模式类比推理任务,并通过构建 Multimodal Analogical Reasoning 数据集和 Multimodal knowledge graph MarKG 进行评估。研究表明,从多模态源获取信息可以带来比单模态源更强大的认知转移,该研究进一步提出了一种基于结构映射理论的新型通用 Transformer 框架(MarT),能够取得更好的性能。
Oct, 2022
本文提出了一种基于元学习方法的知识图谱推荐模型 MetaKG,通过协作感知元学习和知识感知元学习解决了冷启动问题,并通过实验表明 MetaKG 在效果、效率和可扩展性等方面超过现有的模型。
Feb, 2022