- AAAI数据相关的学习对于对称性 / 反对称性关系知识库完成的影响
该论文提出了一种新的 L1 规则器来强制符合观察数据的关系得分函数的对称性或反对称性,从而减少参数数量,实现 KBC 方面的更好性能。在 FB15k 数据集上,这种方法表现优于原始复杂嵌入及其他基准方法。
- 知识库完成的规范张量分解
该研究探讨了使用 Canonical Tensor Decomposition 解决 Knowledge Base Completion 问题的局限性,并提出了一种基于 tensor nuclear p-norms 的新型正则化方法,结合这 - ACL利用自动编码器进行关系的可解释和组合式学习的联合训练
此研究通过自编码器联合训练关系,实现了维度缩减技术,提高了知识库完成任务的效率,并展示了联合训练对于发掘关系组合限制和有益于组合训练的可解释性稀疏编码的促进作用。
- M-Walk: 使用蒙特卡罗树搜索学习在图上行走
通过开发 M-Walk 这样一种能够在存在稀疏奖励情况下有效训练的图行走代理,利用深度循环神经网络和 Monte Carlo Tree Search 算法,结合神经策略与 Q 值,用 Q-Learning 进行无模拟训练,最终在多个图行走基 - ACL基于卷积神经网络的知识库补全新嵌入模型
本文提出了一种名为 ConvKB 的嵌入模型,通过卷积神经网络来捕获知识库中实体和关系之间的全局关系和转换特征,并在两个基准数据集上实现了比以前最先进的嵌入模型更好的链接预测性能。
- NIPS重新审视用于学习知识图谱表示的简单神经网络
本论文研究知识图谱中实体和关系的向量表示及其用于知识库完成的问题,证明了基于神经网络的评分函数在多个数据集上可以实现接近最先进水平的性能,并量化证明了标准基准数据集中存在的偏见,强调了需要跨越各种数据集进行评估。
- 语料库级细粒度实体类型标注
本文提出 FIGMENT 模型解决了基于语料库的实体类型问题。该模型使用多层次的实体表示和远程监督的噪声缓解算法,实现了知识库完成的任务。在基于 Freebase 的大型实体类型数据集中,该模型表现出很好的效果。
- IJCAI基于图神经网络的非知识库实体知识迁移
本文介绍了一种利用图神经网络计算 OOBK 实体嵌入的知识库完整性完成(KBC)模型,并在 WordNet 数据集上实现了最先进的性能。
- 知识库补全:基准反击
通过重新实现 DistMult 模型,本文发现几乎所有在 FB15k 标准数据集上发布的模型的准确性都可以被我们适当调整基线模型超越,表明最近模型的性能改进可能不是由于架构变化,而是由于超参数调整或不同的训练目标。这应促使未来的研究重新考虑 - ACL一个可解释的知识迁移模型用于知识库完成
本研究提出了一种新的嵌入模型 ITransF,它通过稀疏注意机制来完成知识库的补全,并在两个基准数据集(WN18 和 FB15k)上进行了评估,相对于没有使用额外信息的所有基线,ITransF 在知识库补全任务上都显示出了更好的性能。
- 利用嵌入式知识图谱进行链接预测
本文介绍了基于嵌入式知识图谱网络的知识库完成方法,通过使用端到端反向传播训练,可以将大型知识库压缩成优化的版本,并在知识库完成基准测试中取得了最新的最佳结果。
- EMNLP利用语境信息进行语料级细粒度实体类型划分
本研究基于嵌入式方法,提出了 FIGMENT 来解决语料库实体类型划分问题,并在知识库完成中应用。FIGMENT 由全局模型和上下文模型组成,分别得分后进行综合评分,其性能优于依赖于开放信息提取系统获取关系的实体类型划分方法。
- 知识库补全中使用 Bigram 嵌入的因式分解机框架
本论文研究了基于嵌入式模型的知识库完成方法,探讨了使用灵活的因式分解机模型和多种消融方法的大写字母嵌入表示法。通过实验表明,相对于组合模型,大写字母嵌入表示法在 fb15k237 数据集上有相对的改进。
- EMNLP在向量空间中遍历知识图谱
研究表明,通过嵌入知识图谱的向量空间,可以递归应用于回答路径查询来解决知识图谱中缺失事实的问题。引入新的 “组合性” 训练目标,大大提高了所有模型回答路径查询的能力,并在标准知识库完成任务上取得了新的最佳结果。
- 基于二元和三元嵌入模型的知识库链接预测
本文提出了一种结合了高容量模型和简单模型的方法 Tatec,该方法使用不同种类的正则化和组合策略,从而在四个文献基准测试中取得了最先进的结果,实现了在不同类型关系上都能优于现有方法的内源链接预测问题解决方案。
- 为知识库完备性建立组合向量空间模型
该论文提出了一种使用递归神经网络推理多跳关系的新方法,通过向既有的知识库添加由多跳关系推理得出的新事实实现知识库完成,并在新整理的数据库上展示了 11% 的准确度提升。
- 基于新数据集和方法推断知识库补全的缺失实体类型实例
本文研究知识库完成的问题,聚焦于推断知识库中缺失的实体类型实例,提出了使用现有知识库信息和维基百科的外部信息的知识库完成方法,并通过构建大规模数据集和设计自动评估方法验证了方法的有效性和正确性。
- ICLR在词汇表示中结合分布和关系语义
本文研究了词表示应该包含分布式和关系语义这一假设。为此,我们使用 Alternating Direction Method of Multipliers (ADMM),它可以灵活地在原始文本上优化分布式目标和 WordNet 上的关系目标。 - ICLR将分配和关系语义融合到单词表示中
本文研究单词表示应该结合分布式和关联语义的假说。我们采用 ADMM 方法,在原始文本上灵活优化分布式目标,WordNet 上的关联目标。初步结果表明,针对两个目标训练的单词表示在某些情况下可以提高知识库完成,类比测试和解析的性能。