基于大型语言模型的树形偏好学习验证器 (Tree-PLV) 通过构建推理树并收集步骤级成对数据进行优先级训练,以更精确地评估完整的推理路径,从而实现在算术和常识推理任务上显著优于现有基准的性能提升。
Jun, 2024
将先前的上下文和非语言环境融入对话中,可改进语言到行动组件,本文展示了通过微调 LLM 来预测基于先前环境的行动,在 Jayannavar 等人 (2020) 任务上,我们的模型 NeBuLa 相比基准线将净行动 F1 分数提升了一倍。我们还通过使用合成数据集研究了我们模型构建形状和理解位置描述的能力。
多跳问题回答 (MHQA) 任务对于大型语言模型 (LLMs) 来说是一项重大挑战。我们提出了一个新颖的生成然后固定 (GenGround) 框架,结合 LLMs 的参数化知识和外部文档,以解决多跳问题。通过在检索的文档中确认问题 - 答案对,我们的方法在四个数据集上展示了其优越性。
社交媒体正在成为新闻的主要入口,但由于人们的观点不同,新闻将存在偏见。本文探讨了新闻文章中经常被忽视的偏见检测方面:语义结构。我们提出了一种新颖的归纳式、资源有限的文档嵌入和偏见检测模型(DocNet),其性能超过了大型语言模型。我们还证明了来自相对立政治立场的新闻文章的语义结构(以文档级图形嵌入表示)具有显著的相似性。这些结果可用于提高资源有限环境中的偏见检测。
使用 FrameNet 形式主义,本研究探讨了通过生成新句子来保留给定语义结构的任务。我们提出了一个框架,通过过度生成和过滤的方法生成新的框架语义注释句子。我们的结果表明,基于丰富且明确的语义信息进行条件生成往往会产生高人工接受度的生成结果,并对提示和微调均有效。我们生成的框架语义结构注释在低资源环境中对框架语义角色标注的训练数据扩充非常有效;然而,在高资源环境下我们并没有看到好处。本研究得出的结论是,尽管生成高质量、语义丰富的数据可能在一定程度上成为可能,但这种生成结果的下游效用仍有待进一步观察,突出了自动化语言注释任务的尚未解决的挑战。
通过自我监督学习研究潜在空间的构建,支持语义有意义的操作;操作性潜在空间不仅展示语义结构,如聚类,还支持具有内在语义意义的常见转换操作。
本文提出了 Query-Enhanced Adaptive Semantic Path Reasoning (QASPR) 框架,同时捕捉知识图谱的结构和语义信息,以增强归纳式知识图谱完成任务。QASPR 通过使用查询依赖的掩蔽模块自适应地掩蔽噪声结构信息并保留与目标密切相关的重要信息。此外,QASPR 引入了一个全局语义评分模块,评估知识图谱中推理路径上节点的个体贡献和集体影响。实验结果表明,QASPR 实现了最先进的性能。
我们提出了一种基于核范数损失的新方法,用于学习既符合指定语义结构又有助于概率命题推理的视觉表征,最小化该方法编码了语义的谱几何在子空间格点上,可以用投影算子表示逻辑命题。
May, 2024
RULE-KE 是一种新颖的框架,它通过利用规则发现和逻辑规则更新高度相关的事实的知识,来提高知识编辑下面的所有现有 MQA 方法的性能。
使用大型语言模型的知识链式推理能力解决多跳问题回答,引入检索增强的动态检索框架 Tree of Reviews,在多个数据集上实验结果显示比基线方法达到最先进的检索和响应生成性能。
Apr, 2024