基于 Prolog 对话引擎的交互式文本图挖掘
通过聚集深度学习方法提供的依存句法分析器提供的链接形成的依赖图来建立神经网络和基于图的自然语言处理之间的桥梁,并通过提取最大强连通组件中的关键词和摘要来介绍统一的关键词、摘要和关系提取方法,从而构建一个新的对话引擎,利用内在结构信息提取命题之间的关系。
Sep, 2019
本文提出了一个基于 Prolog 语言的面向机器人的知识管理系统,该系统具有以下特点:1. 使用大型语言模型的半自动化过程从自然语言文本中高效填充知识库;2. 通过一系列转换实现多机器人系统的时间并行计划的无缝生成;3. 将计划自动翻译成可执行的形式化(行为树)。该框架由一套开源工具支持,并应用在一个实际应用上。
Sep, 2023
本文提出一种将神经网络与逻辑编程相结合的方法,用于解决自然语言处理的多跳推理问题,通过底层表示层面上的结合,使得具有逻辑规则的解释型结果可以应用于自然语言处理领域,同时在两个不同的问题回答任务上达到了竞争水平。
Jun, 2019
最近,ChatGPT 在 NLP 领域引起了广泛关注。ChatGPT 是一种基于 Transformer 的大规模生成式语言模型,在自然语言处理的各种任务中表现出多样性。然而,大型语言模型在解决需要推理能力的数学问题时往往表现较差。先前的研究表明,借助思维链提示可以增强推理能力。现在,我们旨在探讨是否通过对生成 Prolog 代码进行微调,进而将这些代码传递给编译器可以进一步提高准确性。结果显示,Prolog 生成模型在性能上超过了基准模型,而组合生成模型并未显著提高。基于 GSM8K 的 Prolog 语料库和相应微调的基于 LLaMA7B 的 Prolog 生成模型已经发布给研究社区。
Sep, 2023
本文提出一种适用于任务导向型对话系统的模型,利用知识库和对话的依存关系图结构信息解决了如何有效地将外部知识库整合到学习框架中以及如何准确捕捉对话历史语义的挑战。此外,该模型采用多跳推理能力以及循环单元架构进行表示学习。实验结果表明,该模型在两个不同的任务导向型对话数据集上均优于现有模型。
Oct, 2020
本文旨在探究利用逻辑程序模拟图神经网络的信息传播机制,在解决节点属性预测问题中的应用,通过实现一个类似 Prolog 程序的逻辑程序来模拟图神经网络的信息传播阶段,并利用相似节点的属性推断测试集中的节点属性,与链接结构进行比较,得到更好的表现,在 ogbn-arxiv 节点属性推断基准测试上实现了与领先水平接近的结果,并为该数据集的性能上限提供了解释。
Aug, 2022
使用对话作为交互前端的 GPT 模型,学习可解释、符号化的任务,并将其表示为具有作用域变量参数的谓词 - 论元结构的分层分解,从而使得分层任务知识得以在自然、自由的对话环境中被获得和重用。
May, 2023
该研究提出了一种新的方法,将知识推理能力纳入对话系统的可扩展性和通用性中,以提高用户体验。该方法使得单一转换器模型能够直接在大规模知识图谱上进行推理,以生成响应,并通过任务导向和特定领域的对话交流进行了实证研究,证明了其有效性和高效性。
Mar, 2022
通过自动将自然语言句子转化为描述逻辑,我们使用大型语言模型将自然语言句子转换为 OWL 功能语法,用于丰富本体论,并通过人类监督的方式提供该工具作为 Protge 插件。
Jul, 2023