基于焦点排序模式
本文研究知识库完成的问题,聚焦于推断知识库中缺失的实体类型实例,提出了使用现有知识库信息和维基百科的外部信息的知识库完成方法,并通过构建大规模数据集和设计自动评估方法验证了方法的有效性和正确性。
Apr, 2015
本文提出了ML-Schema,这是一个用于表示和交换机器学习算法、数据集和实验信息的顶级本体和规范,通过这一规范,或许能够实现更好的可解释性和实验的完全互操作性。
Jul, 2018
提出了一种基于知识图谱和实体关系子图的文档丰富方法,通过新的组合优化问题求解算法实现了紧凑、具有代表性和相关性的ERG,利用本体知识对ERG进行排序,实现了在有效丰富的同时保证了相关性和紧凑性。
May, 2020
本研究探讨基于预训练语言模型作为知识库的Paradigm,提出两个基本要求:存储大量涉及大量实体的事实和查询存储的事实的能力,并探索了三种实体表示法,提供了一个实证,证明语言模型确实可以作为知识库。
Aug, 2020
本研究提出了COPEN,作为探查预训练语言模型概念知识的评估基准,并通过三项任务对PLMs的概念知识进行综合评估,结果表明现有的PLMs系统性缺乏概念知识并受到各种虚假相关性的影响。
Nov, 2022
本文介绍了有关知识库的完整性、回溯和否定的表示、提取和推断的方法,以及对应的方法及其工作原理的基本方法,并针对两类受众提出了解决不完备知识库方面的建议。
May, 2023
通过使用可用的特征为训练数据,并分析这些模型的排名能力是否可以转移到感知和主观特征上,我们发现在一定程度上是可以的,但在训练数据中包含感知和主观特征似乎是实现最佳结果的关键,此外,我们还发现点对点的排名策略与常识相悖,并且能与成对的方法竞争。
Feb, 2024
本研究综述了150+篇论文,对概念化的定义、执行、应用以及相关的资源方法和下游应用进行了综合分类,特别关注实体和事件层面,在此基础上,我们揭示了该领域的未来发展方向,并希望得到社区更多的关注。
Jun, 2024
基于Large Language Models (LLMs) 使用schema元素的名称和描述,我们研究了模式匹配的应用,并提出不同任务范围的方法。通过比较LLM-based模式匹配与基于字符串相似度的基准线,我们发现匹配质量受到上下文信息的影响,但使用更新版本的LLMs能够增加决策能力。研究表明,LLMs在加速模式匹配过程上具有潜力,并能够帮助数据工程师仅依靠模式元素的名称和描述来完成该任务。
Jul, 2024