用于上下文理解的神经符号结构
本文介绍了神经符号计算(NeSy)领域的重要和最新研究发展,包括研究历史,背景知识,关键驱动因素以及主要特征。文章讨论了该领域的一些重要应用并针对目前存在的问题提出了新的研究方向,以期进一步推动以数据和知识为驱动的 AI 的研究进展。
Oct, 2022
本文综述了神经符号计算作为一种将机器学习和推理集成在一起的原则方法,并通过笔者的主要特点,如神经学习与符号知识表达和推理的原理集成,证明了其作为一个可解释的 AI 系统的构建方法的有效性。神经符号计算为我们提供了关于越来越显著的可解释性和负责任的 AI 系统的重要见解。
May, 2019
这篇论文调查了在图结构上执行神经符号推理任务的广泛方法,并提出了一个新的分类法来比较这些方法,包括基于逻辑推理嵌入方法、施加逻辑约束的嵌入方法和规则学习方法。此外,还提供了一个表格概述这些方法。
Feb, 2023
本文探讨了神经符号计算技术中深度学习和知识表示应该如何有机结合,通过 20 年来的相关研究结果,为下一个 AI 系统的关键性成分做出探索,以神经符号系统的视角提出 AI 技术应该在信任、安全、可解释性和问责制方面有所提升和解决的方向和挑战。
Dec, 2020
人工智能的快速发展,特别是通过深度神经网络,已经在视觉和文本处理等领域取得了显著进展。但是,实现人类类似的推理和可解释的人工智能系统仍然面临重大挑战。神经符号学范式将神经网络的深度学习能力与符号系统的推理能力结合起来,提供了开发更透明和可理解的人工智能系统的有希望途径。本文探讨了基于知识图谱的神经符号一体化的最新进展,阐明了知识图谱在三个关键类别中支撑着这种一体化:通过引入符号知识来增强神经网络的推理和可解释性(Symbol for Neural),通过神经网络方法来提高符号系统的完整性和准确性(Neural for Symbol),以及促进两者在混合神经符号一体化中的应用。本文强调了当前的趋势,并提出了神经符号人工智能领域未来研究的方向。
May, 2024
神经符号人工智能(AI)是一个新兴而快速发展的领域,它结合了(深度)神经网络的子符号优势和知识图中的显式符号知识,以提高 AI 系统的可解释性和安全性。该方法解决了当前生成系统的一个关键批评,即其无法生成人类可理解的解释并确保安全行为,尤其在具有未知未知事物的情况下(例如,网络安全和隐私)。神经网络和符号知识图的集成使得 AI 系统能够以专家可理解的方式进行推理、学习和概括,该文章描述了在网络安全和隐私领域应用神经符号 AI 的益处。
Jul, 2023
人工智能的显著进步主要是由深度神经网络所推动,然而不可持续的计算轨迹、有限的鲁棒性和缺乏解释性的问题要求开发下一代人工智能系统。神经符号人工智能 (NSAI) 作为一种有潜力的范式,将神经、符号和概率方法融合在一起,提高可解释性、鲁棒性和可信度,并能够从较少的数据中进行学习。最近的 NSAI 系统在具有推理和认知能力的协作人工智能场景中展示了巨大的潜力。在本文中,我们对 NSAI 的最新进展进行了系统综述,并分析了 NSAI 模型的性能特征和计算操作符。此外,我们还从系统和架构的角度讨论了 NSAI 面临的挑战和潜在的未来方向。
Jan, 2024