基于实例的知识库补全学习
通过提出两种不同的基于规则的 KBC 方法,并结合神经符号 AI,继承了布尔逻辑到实值逻辑,本文提出的模型实现了最佳的 KBC 精度,并通过将规则 - based KBC 与图嵌入相结合来解决关系路径的不均匀性。
Sep, 2021
归纳性知识图谱补全的这篇研究中,通过学习训练图谱中的推理模式,从而对不相交的测试图谱进行预测;研究发现基于规则的方法相对于基于图神经网络(GNNs)的最新方法具有较低的性能,但通过针对问题所涉及的两个因素进行优化,可以实现接近基于图神经网络的性能,同时保留了规则方法的可解释性优势,并且进一步的变种在总体知识图谱中的表现优于基于图神经网络的方法。
Aug, 2023
通过在大型语言模型中使用代码风格的上下文学习方法,从而解决了知识基础问题回答中逻辑格式错误的问题,并在少样本设置下实现了 WebQSP、GrailQA 和 GraphQ 等主流数据集上的最新技术水平。
Sep, 2023
该研究提出了一种基于 LLMs 的 McL-KBQA 框架,通过基于 ICL 的多选项将 LLMs 的 Few-shot 能力纳入 KBQA 方法,从而提高了 QA 任务的有效性和泛化性能。在两个 KBQA 数据集上的实验结果表明,McL-KBQA 具有竞争性的性能和强大的泛化性能。研究者期望从 LLMs 的角度探索 QA 任务的新方法,并获得规范和正确的答案和强大的泛化性。
May, 2023
使用大型语言模型构建知识库的 LLM2KB 系统有不同于基础模型的参数紧凑的注入模型,通过 LoRA 技术调整指令以便使用 Wikipedia 页面上下文实体,并在 LM-KBC 挑战中取得了 0.6185 的平均 F1 得分。
Aug, 2023
本文主要研究逻辑推理领域中文本蕴涵任务的知识需求,提出用基于知识库补全的方法替换基于搜索的公理注入机制可以显著提高现有系统的处理速度和性能。通过实验证明,增加新的知识数据对于 RTE 的性能有积极影响但对处理速度影响不大。
Nov, 2018
本文提出了一种有效的预训练方法,用于从非结构化文本中提取的事实的规范化和非规范化知识库,通过小数据集上实验证明其相对于已有方法的改进,不依赖于大型预先训练的模型(如 BERT)
Aug, 2021
利用跨语言的开放信息提取的最新进展,通过多语言代词消解和保留仅有实体链接三组,构建了第一个含有六种语言的全面的开放式知识库 (mOKB6),并通过基线模型的实验进行分析。
Nov, 2022
提出一种解决基于概念学习(CBL)问题的方法,该方法通过将每个概念标注图像划分为补丁,并使用自编码器将这些补丁转换为嵌入向量,然后假设每个聚类主要包含具有特定概念的补丁的嵌入向量,通过计算具有特定概念的图像的补丁比率,计算先验概率和后验概率以推断新图像的概念,从而结合专家规则以适应先验和条件概率,并且该方法透明,具有明确的概率计算序列和清晰的频率解释,数值实验表明在训练数据较少时,FI-CBL 的性能优于概念瓶颈模型。
Jun, 2024
基于双线性模型的知识图谱完成是一种强大且广泛使用的方法。本研究发现了一种名为 “身份法则” 的先验属性,该属性无法被双线性模型捕捉,这限制了它们对知识图谱特征的综合建模能力。为解决这个问题,我们引入了一种名为 “Unit Ball Bilinear Model” 的解决方案,该模型通过最小约束来最大限度地减少无效学习,并在理论上和性能上取得了提升。实验证明 UniBi 模型了先验属性,并验证了它的可解释性和性能。
Sep, 2023