本文分析了使用知识库补全模型从原始文本中挖掘常识知识的可行性,并将预测的三元组的新颖性作为解释结果的重要因素。我们批判性地分析了挖掘新奇常识知识的困难性,并展示了一种简单的基线方法在预测更多新奇知识方面优于之前的最佳方法。
Apr, 2018
使用预训练的双向语言模型将关系三元组转换为掩码句子,通过估计点间互信息来排名三元组的有效性,从而开发了一种生成常识知识的方法。该方法在新源中挖掘常识知识时优于显式训练的模型,说明无监督技术比目前的有监督方法更具推广性。
Sep, 2019
通过对常识知识源进行调查,本文提出了构建通识知识图谱的原则、表示模型,将七个独立的常识知识源整合到了第一版集成的通识知识图谱中,并分析了它在四个问答数据集上的应用统计结果和所得到的经验教训。
Jun, 2020
本研究调查了 Wikidata 中是否包含与现有常识源不同的常识知识,并通过三个指导原则生成了 Wikidata 的常识子图。实验发现,尽管 Wikidata-CS 表示 Wikidata 的一小部分,但它是包含相关常识知识的指示器,可以映射到 15 个 ConceptNet 关系;Wikidata-CS 与其他常识源的重叠很小,需要进行知识集成和质量改进。基于这些发现,我们提出了三个长期改进建议。
Aug, 2020
本文提出了将外部常识知识与语言模型相结合的方法,以提高多选题目中常识知识的应用。研究人员采用三种不同的知识插入策略和四种不同的问题 - 回答模型,分析预测结果并探索进一步改进的范围。
通过利用 ConceptNet 中的结构化知识,构造逻辑形式并生成常识性逻辑推理的多项选择题进行训练,我们提出了一种简单而有效的方法来教授预训练模型常识性推理,实验结果表明,这种训练可以使预训练模型在需要常识性推理的任务上表现稳定提升,特别是在少样本学习设置下。
本文提供一种有效的方法,通过使用外部的常识知识库,例如 ConceptNet,来预训练直接和间接的概念相关函数,并将其添加到现有的神经网络模型中,以提高基于常识推理的三个问答任务的基础结果。结果表明,我们的系统能够发现和利用外部常识知识库中有用的证据,这对于导出正确答案很有帮助。
Sep, 2018
该研究提出了两种方法,通过外部常识知识图谱,隐式或显式地融入到预先训练好的自然语言处理模型中,以提高社交智能,这种方法对社交常识推理任务 SocialIQA 的表现在有限和完整的训练数据制度下都表现出良好的效果。
May, 2021
本文旨在通过整合常识知识维度,调查了许多常识知识来源并将它们合并成 13 个常识知识维度,其中时间和渴望 / 目标维度对于现有的下游推理任务非常有益,而不同性和词汇知识对这些任务的影响相对较小。
Jan, 2021
该论文提出了一个常识问答的新数据集 ——CommonsenseQA,并采用了多个目标概念,旨在提高常识推理的难度,在使用 BERT-large 作为基线方法的情况下,最佳准确率为 56%。
Nov, 2018