知识库中的知识有多稳定?
本文提出了一种用于构建具有可调精度的知识库的方法,该方法通过概率建模用户对每个实体 - 属性对的共识,来控制知识库的精度,并介绍了三种神经网络用于拟合共识模型,并在 Google Maps 数据上进行了评估。研究表明所提出的学习模型很好地校准,并且能够成功地用于控制知识库的精度。
May, 2019
在这篇论文中,我们对来自各个领域(如自然科学、医学和自然语言处理)的 29 个真实知识图谱数据集进行了大规模比较研究,分析了它们的属性和结构模式,并根据发现提出了针对基于知识图谱模型开发和评估的几项建议。我们相信知识图谱中丰富的结构信息可以有益于各个领域更好地发展知识图谱模型,并希望这项研究能够有助于打破现有领域间的数据孤岛(例如机器学习、自然语言处理和科学人工智能之间的联系)。
Nov, 2023
本文介绍了有关知识库的完整性、回溯和否定的表示、提取和推断的方法,以及对应的方法及其工作原理的基本方法,并针对两类受众提出了解决不完备知识库方面的建议。
May, 2023
提出了一种可在符号知识库中通过推理以完全可微的方式连接实体的实体消歧模型,该模型可以使用所有 KB 信息,超过六个著名实体消歧数据集中的现有模型,并在基于不常见和模糊实体的 ShadowLink 数据集中提高 12.7 F1。
Jul, 2022
本文提出了一种新的基于问题生成和实体链接的知识库生成方法,该知识库由小的模块化组件组成,支持关系查询和多跳推理,与用户信息需求相匹配。
Jul, 2022
本文提出一种基于 pipeline 分解方法的系统,能够回答复杂的自然语言查询,帮助工程师访问建模轨道空间碎片环境的知识库中的信息。该系统可以利用 GPT-3 生成的半合成数据和跨领域数据来进行训练,从而减少过拟合和快捷学习。
May, 2023
该综述着重探讨如何通过训练深度上下文语言模型,在没有人为限制下更灵活地内部化和表达关系知识,对知识表示策略进行分类,提出了高层次的可扩展分类法,并强调了当前语言模型在知识表示方面的能力与未来的研究方向。
Apr, 2021
提出了一种用多个知识库来加强大型模型表示的方法,每个知识库都通过一个集成实体链接器来检索相关实体嵌入,然后通过单词与实体关注的形式更新上下文单词表示,经实验发现知识增强的 BERT 模型具有更好的性能,且运行时间与 BERT 相当。
Sep, 2019