- 一种基于学习后推理模型的知识库问答通用化方法
KBLLaMA 研究知识库问答系统的学习 - 推理框架,向大型语言模型注入新的知识以提高其泛化能力,在各种问答任务中表现出最先进的性能。
- 机器学习与本体论在机器人应用中的耦合
本文提出了一种实用的方法,将机器学习算法与知识库本体形式结合。通过两个基于不同数据集的实验,分析了自主系统的风险意识,应用了多层前馈反向传播、朴素贝叶斯和 J48 决策树等机器学习算法。研究表明,将机器学习和知识库进行二层智能耦合是可行的, - 通过大型语言模型重定义结构化数据库的信息检索
本文介绍了一种名为 ChatLR 的新型检索增强框架,主要利用大型语言模型(LLMs)的强大语义理解能力作为检索器,以实现精确和简洁的信息检索。通过在金融领域微调 LLM 并构建基于 LLM 的搜索和问答系统,实验证明 ChatLR 在解决 - CultureBank:朝向具有文化意识的语言技术的在线社区驱动式知识库
为增强语言模型的文化意识,我们设计了一个通用的流程来从不同的在线社区大规模构建文化知识库。通过该流程,我们构建了一个基于 TikTok 用户自述和 Reddit 的文化描述信息的 CultureBank 知识库,包含 12K 个文化描述符和 - ACL通过可靠和时间感知的证据检索改善健康问题回答
利用 PubMed 作为可靠的医学研究文档集合,针对开放领域的问答设置,研究通过修改检索设置来提高问答系统性能的方法。结果显示,减少检索到的文档数量,偏爱近期和被引用次数较多的文献可以提高最终的宏观 F1 得分达到 10%。
- ACLUniArk: 去偏见提高事实知识抽取的泛化能力和一致性
使用适配器框架 UniArk,通过简单方法进行广义和一致的事实知识提取,大幅提高了模型在领域外的概括能力和多种提示下的一致性。此外,构建了 ParaTrex,一个大规模且多样化的数据集,用于测量模型的不一致性和领域外生成,并提供了使用大型语 - ACL自适应 - RAG: 通过问题复杂性学习适应检索增强大型语言模型
本研究提出了一个新颖的适应性问答框架,可以根据查询的复杂性动态选择最合适的策略,该策略可在回答问题时无缝地在迭代和单步检索增强型大型语言模型之间进行调整,同时适应多种查询复杂性,提高问答系统的效率和准确性。
- 评估波兰文文本排序模型的泛化能力
在本研究中,我们关注波兰语的 reranking 问题,通过对 rerankers 的性能进行评估,并将结果与现有的 retrieval models 进行比较。实验证明,大多数模型在领域外的泛化上遇到了困难,然而,通过有效的优化方法和大规 - 语言模型在规模上是否能充当知识库?
大型语言模型在理解和生成复杂查询方面表现出了卓越的能力,但它们在存储、回忆和推理大规模结构化知识方面的有效性仍有待研究,本研究发现虽然大型语言模型有望作为大规模知识库灵活地检索和回答问题,但需要增强它们的推理能力以充分发挥潜力。
- Triad: 一种利用基于多角色 LLM 的代理人解决知识库问答的框架
通过 Triad 框架,利用 LLM-based agent 的三个角色来解决 KBQA 任务,我们的框架在 LC-QuAD 和 YAGO-QA 基准测试中表现优于现有技术,分别达到 11.8% 和 20.7% 的 F1 得分。
- 基于 LLM 的中间件:工具在复杂环境中对语言代理很重要
本研究探讨了利用工具增强大规模语言模型在处理复杂环境中的潜力,并通过在知识库和数据库等复杂环境中的实证来展示这种潜力。结果表明,配备这些工具的 GPT-4 在需要访问数据库内容的任务中性能提高了 2.8 倍,在知识库任务中提高了 2.2 倍 - ACL英国女王并非英国的女王:关于基于语言模型的事实连贯性缺失
在本研究中,我们考虑了预训练语言模型(PLMs)中的实际知识的一种补充性特征,即 PLMs 中实际知识的连贯性。我们的结果表明,PLMs 在使用手动编写的、优化的和改写的提示时具有较低的连贯性,但包含证据段落则会有显著改善。这表明 PLMs - KB-Plugin:面向低资源知识库引导程序的即插即用框架
使用自我监督学习编码细节化的知识库模式信息,KB-Plugin 能够帮助大规模语言模型从任何资源不足的知识库中诱导出程序。
- AMOR: 通过过程反馈构建适应性模块化知识代理的方法
基于开源语言模型的 AMOR 代理框架通过外部知识库进行推理,并通过人类监督适应于具体领域的推理过程,利用有限状态机构建推理逻辑以实现问题解决和模块之间的过渡,并通过两阶段微调加强其泛化能力和适应性。通过多个领域的广泛实验,证明了基于有限状 - 存在规则下的元组删除语义一致的查询答案
研究使用存在规则表示的知识库中的一致查询回答。具体地,建立了一般类别的消解存在规则和多个子类(无环、线性、全面、守卫、粘滞)下的一致查询回答和修复检查的数据复杂性(元组删除语义)。特别是,鉴定了几种情况下问题可处理或甚至是一阶可重写的,并提 - 走向自顶向下推理:可解释的多代理视觉问答方法
本论文提出了一个可解释的多智能体协作框架,通过利用在广泛语料库上训练的大型语言模型中嵌入的知识,以人类认知为灵感,使用三个智能体,即探索者、回答者和整合者,进行自顶向下推理过程,从而明确地构建特定图像场景的多视图知识库,以自顶向下的处理方式 - 基于 Transformer 的描述逻辑上下文推理
通过使用描述逻辑知识库构建一个合成的自然语言问答数据集,本研究评估了基于 transformer 的模型在推理能力、合成语境和知识库相关的问题上的表现,并展示了模型在训练过程中对不同推理深度的泛化能力。
- EMNLP受指导的语言模型结合检索器是强大的实体链接器
通过指导性生成实体连接器,使常规语言模型在大规模知识库上能够进行实体连接,有助于克服生成模型的虚幻性,提高链接表现并提高数据和计算效率。
- 将通用场景描述转化为机器人环境知识图谱
探索将虚拟现实技术用作机器人环境建模的实现方法,并提出一种将场景图转化为知识库的技术。利用通用场景描述(USD)格式将基于 USD 的环境模型转化为知识图谱,从而便于语义查询和与其他知识源的集成。
- EMNLPMarkQA:一个具有数值推理的大规模知识库问答数据集
本文提出了一个新的任务,NR-KBQA,它需要进行多跳推理和数值推理。我们使用 Python 格式的逻辑形式 PyQL 设计了数值推理问题的推理过程,并提供了一个名为 MarkQA 的大型数据集,用于促进 NR-KBQA 的开发。实验结果表