AI 的黑箱问题的白箱解决方案
通过形式化说明解释是什么,提出一些公理和定义来澄清可解释的人工智能的数学角度。最后,我们提出了一个 Greybox XAI 框架,该框架通过使用符号知识库将 DNN 和透明模型组成。我们从数据集中提取知识库,并使用它来训练透明模型(即逻辑回归)。然后,我们在 RGB 图像上训练编码器 - 解码器架构,以产生类似于透明模型使用的知识库的输出。一旦两个模型独立地训练好后,它们就在组成的形式上用于形成可以解释的预测模型。我们展示了这种新的架构在几个数据集中是准确的和可以解释的。
Sep, 2022
本文探讨了神经符号计算技术中深度学习和知识表示应该如何有机结合,通过 20 年来的相关研究结果,为下一个 AI 系统的关键性成分做出探索,以神经符号系统的视角提出 AI 技术应该在信任、安全、可解释性和问责制方面有所提升和解决的方向和挑战。
Dec, 2020
该论文探讨了神经网络的复兴及其对人工智能领域的影响,介绍了监督学习和深度学习等技术的应用和优劣势,同时也指出了一些伦理和技术上的问题和挑战。
Oct, 2022
神经符号人工智能(AI)是一个新兴而快速发展的领域,它结合了(深度)神经网络的子符号优势和知识图中的显式符号知识,以提高 AI 系统的可解释性和安全性。该方法解决了当前生成系统的一个关键批评,即其无法生成人类可理解的解释并确保安全行为,尤其在具有未知未知事物的情况下(例如,网络安全和隐私)。神经网络和符号知识图的集成使得 AI 系统能够以专家可理解的方式进行推理、学习和概括,该文章描述了在网络安全和隐私领域应用神经符号 AI 的益处。
Jul, 2023
研究了如何从学习黑匣子中提取加权自动机,以评估其全局可解释性,不需要访问数据集或内部表示,充分利用黑匣子的输出结果,实验结果表明此算法在 48 个合成数据集和 2 个实际数据集上的逼近效果出色。
Oct, 2018
人工神经网络在教育应用中具有适应性教育服务的重要性,然而由于三个重大挑战,即难以整合教育知识、学习和反思偏见,以及缺乏解释性,它们在实践中的教育潜力受到限制。该研究认为神经符号人工智能具有解决这些挑战的潜力,通过开发一种称为 NSAI 的方法,它将教育知识注入和提取到深度神经网络中,以建模学习者的计算思维。研究发现 NSAI 方法相较于仅在训练数据上训练的深度神经网络以及通过 SMOTE 和自编码器方法来增强训练数据的深度神经网络具有更好的泛化能力。此外,NSAI 方法使得从学得的网络中提取规则成为可能,便于解释与推理以及优化初始教育知识。这些发现表明神经符号人工智能能够克服人工神经网络在教育领域中的局限,实现可信赖和可解释的应用。
Nov, 2023
人工智能的显著进步主要是由深度神经网络所推动,然而不可持续的计算轨迹、有限的鲁棒性和缺乏解释性的问题要求开发下一代人工智能系统。神经符号人工智能 (NSAI) 作为一种有潜力的范式,将神经、符号和概率方法融合在一起,提高可解释性、鲁棒性和可信度,并能够从较少的数据中进行学习。最近的 NSAI 系统在具有推理和认知能力的协作人工智能场景中展示了巨大的潜力。在本文中,我们对 NSAI 的最新进展进行了系统综述,并分析了 NSAI 模型的性能特征和计算操作符。此外,我们还从系统和架构的角度讨论了 NSAI 面临的挑战和潜在的未来方向。
Jan, 2024
神经符号 AI 旨在将深度学习与符号 AI 相结合,以减少训练神经网络所需的数据量,提高模型给出答案的可解释性和可解性,并验证经过训练的系统的正确性。我们研究神经符号学习,既有使用符号语言表示的数据,也有背景知识。通过模糊推理、概率推理以及训练神经网络来连接符号和神经组件,以交流这一知识。
Jan, 2024