- G-SAP:基于图的异构知识的常识推理结构感知提示学习
我们提出了一种用于常识推理的新型基于图结构的提示学习模型,名为 G-SAP,旨在在 LM+GNNs 模型中保持异构知识的平衡并增强跨模态的交互。通过将多个知识源整合到证据图中,采用结构感知的冻结 PLM 来完全融合来自证据图的结构化和文本信 - 信任的知识图解释与常识推理
融合语言模型和知识图谱已经变成通识问题回答研究中的常见做法,但在这些模型中实现忠实的思维链解释仍然是一个开放问题。本研究的两个主要贡献是:(1) 提出并验证了两个定量指标 - 图一致性和图忠实度 - 用于衡量基于知识图谱的解释的忠实性。(2 - UFO: 通用常识问答的统一事实获取
通过 Unified Facts Obtaining (UFO) 方法使用大规模语言模型,获取事实并在各种常识问答方面进行推理,从而在各基准测试中显着提高推理模型的性能。
- 二元分類法是否為多選問答的有效方法?
本研究提出将多选题回答任务改为二元分类,并且使用了 DeBERTa 模型,实现了对实际问题的有效解答。
- EMNLPRainier:基于强化学习的常识问答知识感知器
本文提出了 Rainier 方法,该方法学习在回答给定问题时生成相关上下文知识,经过增强学习后显示出实质和一致的性能增益,超过了 GPT-3 引出的常识知识的质量,并在 9 个不同的常识基准测试中获得了一致的表现提高。
- 知识感知问答的动态关联图网络
本文旨在研究利用知识图谱作为外部知识源时,如何解决常识问答中的学习和推理问题,提出了一种新的图神经网络模型 DRGN,使用节点之间关联性得分作为图边,以动态方式建立节点表示的学习连接,优化并复用了已有关系以及对缺失的知识进行推理。针对负问题 - 通用的神经符号系统用于常识问答
介绍了如何使用适合的神经符号模型来实现领域泛化和下游任务的鲁棒性,讨论了整合神经语言模型和知识图谱的不同方法,并对各种常识问答基准数据集进行了定量评估和定性错误分析。
- AAAI用填空翻译和一致性优化实现零样本通识常识问答
本研究针对常识问题回答(Commonsense question answering)的挑战,提出了利用预训练语言模型中的 “隐含知识”,通过四种翻译方法,探索如何更好地调动语言模型中的常识知识。研究通过在零样本情况下对三个 CQA 数据集 - ACLJointLK:基于语言模型和知识图谱的常识问答联合推理
本研究提出了一种新型模型 JointLK,通过联合 LM 和 GNN 的推理和动态 KG 的修剪机制解决现有 KG 增强模型在常识问题回答方面的局限性。通过一种新的密集双向注意模块,JointLK 在 LM 和 GNN 之间进行联合推理,并 - EMNLP通识问题回答的社交知识语义分类
本文提出使用 SocialIQA 为例子,利用分类语义学意义,构建基于 SocialIQA 的标记社交知识类别数据集,并在此基础上训练神经 QA 模型,通过加入社交知识类别和知识库中的关系信息来完全表征这些 QA 任务。相较于以往研究,使用 - AAAI通过知识文本转换基准测试知识增强型常识问答
研究人员基于知识增强的常识问答模型,在多个标准常识问答数据集上进行了大量实验,发现当前模型的知识潜力还远未被充分挖掘,提出了上下文敏感的知识选择、异构知识利用和基于常识的语言模型是未来常识问答的有效方向。
- ACL将上下文融入知识图谱以用于常识问答
本文提出一种通过利用外部实体描述来为知识理解提供上下文信息的方法,将其作为预训练语言模型的附加输入,以解决知识图谱融合到语言建模中的问题,并获得了常识 QA 数据集中最先进的结果和 OpenBookQA 中非生成模型中最好的结果。
- EMNLP连接信息点:基于常识问题回答的知识路径生成器
本文提出了使用具有知识的路径生成器增强普通常识问题回答框架的方法,并使用现有路径和最先进的语言模型外推,生成连接文本中一对实体的动态,可能是新颖的多跳关系路径,从而提供解决常识问题所需的结构化证据。两个数据集上的实验表明,我们的方法优于之前 - 零样本常识问答的动态神经符号知识图谱构建
通过动态生成常识知识图谱,我们提出了一种零 - shot 通识问答的方法,能够推理涉及文本场景中因果关系、影响和状态等方面的隐含世界知识,并实现了生成语义知识结构的功能,从而有效地推理出正确答案。
- AAAI基于图的异构外部知识推理用于常识问答
本文提出了一种基于知识库和维基百科文本的异构证据自动提取方法以回答常识问题,通过构建图形结构并使用图形卷积网络对邻居信息进行编码并利用图形注意力机制聚合证据来预测最终答案,成功地提高了 CommonsenseQA 数据集上的准确性达到了最先 - ACLCommonsenseQA:一个针对常识知识的问答挑战
该论文提出了一个常识问答的新数据集 ——CommonsenseQA,并采用了多个目标概念,旨在提高常识推理的难度,在使用 BERT-large 作为基线方法的情况下,最佳准确率为 56%。