构建可信的神经符号 AI 系统:一致性、可靠性、解释性和安全性
本文探讨了神经符号计算技术中深度学习和知识表示应该如何有机结合,通过 20 年来的相关研究结果,为下一个 AI 系统的关键性成分做出探索,以神经符号系统的视角提出 AI 技术应该在信任、安全、可解释性和问责制方面有所提升和解决的方向和挑战。
Dec, 2020
生成型 AI 是当前最流行的 AI 方法之一,它包括大型语言模型(LLM),这些模型被训练成可以生成看似正确但不一定准确的输出。然而,它们在推理方面存在不足,导致 LLMs 的可靠性不完全。此研究提出了一种替代 AI 方法,通过使用明确的知识和经验规则对 AI 进行教育,从而使推理引擎能够自动推导出所有知识的逻辑蕴涵关系;该方法能够得到可信且可解释的结果。然而,使用高阶逻辑的推理引擎速度较慢,因此需要采用某种快速但表达能力较低的逻辑,如知识图谱。该研究还提出了将 LLM 方法与更正式的方法相结合的思路,以实现可信的综合型 AI。
Jul, 2023
本研究探讨如何利用混合神经符号技术来增强大型语言模型在伦理自然语言推理中的逻辑有效性和一致性,通过整合外部的向后求解器,改进逐步自然语言解释的过程,验证解释的正确性,减少不完整性和冗余性,并生成支持模型推理的形式证明,从而提高在多步伦理自然语言推理任务中解释的质量。
Feb, 2024
本文研究利用符号方法跟踪故事状态和帮助故事理解,通过对 CoRRPUS 系统和抽象提示过程的研究,表明我们的方法可以在最小的手动工程条件下,打败当前的有结构的语言模型技术,希望这项研究能够强调符号表示和专门提示对 LLM 的重要性。
Dec, 2022
提出了一种名为 GBPGR 的广义双层概率图推理框架,通过使用统计关系学习启发式地集成了深度学习模型和符号推理,以解决当前人工智能领域中深度学习和符号推理相结合的方法在组合方式、泛化性和可解释性方面的局限性,并通过大量实验证明了该方法在转导和归纳任务中实现了高性能和有效的泛化能力。
Sep, 2023
通过定制化的大型语言模型 (LLM) 代理,采用提示工程、启发式推理和检索增强生成的元素,以保持结构化信息,我们提出了一种高效的混合策略,利用 LLM 进行安全分析和人工智能与人类的协同设计,以提高软件工程和安全工程中的生成式 AI 的质量要求,并确保人类对生成式 AI 提供的建议负责,通过图形表述作为系统模型的中间表示,促进了 LLM 和图形之间的交互,以简化的自动驾驶系统为案例说明了我们的方法。
Apr, 2024
神经符号人工智能(AI)是一个新兴而快速发展的领域,它结合了(深度)神经网络的子符号优势和知识图中的显式符号知识,以提高 AI 系统的可解释性和安全性。该方法解决了当前生成系统的一个关键批评,即其无法生成人类可理解的解释并确保安全行为,尤其在具有未知未知事物的情况下(例如,网络安全和隐私)。神经网络和符号知识图的集成使得 AI 系统能够以专家可理解的方式进行推理、学习和概括,该文章描述了在网络安全和隐私领域应用神经符号 AI 的益处。
Jul, 2023
深度学习在自然语言处理 (NLP) 任务中取得了显著进展,本研究提出了一种神经符号学习方法,将符号主义和连接主义两种人工智能学派相结合,通过强化学习或其弱化版本在下游任务中实现具有符号潜在结构的神经系统的弱监督推理。该框架已成功应用于表格查询推理、句法结构推理、信息抽取推理和规则推理等各种任务。
Sep, 2023
NeSyGPT 通过对视觉 - 语言基础模型进行微调,从原始数据中提取符号特征,并学习一个高度表达的回答集程序来解决下游任务,以提高 NeSy 任务的性能和减少数据标记和手动工程工作量。
Feb, 2024