机器语言的出现:朝向使用神经网络进行符号智能
本文探讨了神经符号计算技术中深度学习和知识表示应该如何有机结合,通过 20 年来的相关研究结果,为下一个 AI 系统的关键性成分做出探索,以神经符号系统的视角提出 AI 技术应该在信任、安全、可解释性和问责制方面有所提升和解决的方向和挑战。
Dec, 2020
通过神经 - 符号过渡性字典学习(TDL)框架,以一种自监督的方式学习数据的过渡性表示,将高维度的视觉输入信息压缩为一组张量作为神经变量,并发现隐含的谓词结构。通过原型聚类学习谓词,并使用扩散模型实现框架,通过合作博弈学习输入的分解,在 3 个抽象组合视觉对象数据集和 3 个神经 / 符号下游任务上进行了广泛实验,展示了学习到的表示能够对视觉输入进行可解释的分解,并且对于现有方法无法实现的下游任务具有平滑适应性。
Aug, 2023
本文综述了神经符号计算作为一种将机器学习和推理集成在一起的原则方法,并通过笔者的主要特点,如神经学习与符号知识表达和推理的原理集成,证明了其作为一个可解释的 AI 系统的构建方法的有效性。神经符号计算为我们提供了关于越来越显著的可解释性和负责任的 AI 系统的重要见解。
May, 2019
通过提出 SEA-net 方案,使神经网络拥有符号创造、语义理解和通信的能力,并通过符号操作和通信获得新的功能。这些和人脑中的符号生成和理解有着共通的框架,有望在未来生产更加强大的人工智能系统。
Apr, 2023
本篇论文研究了多语言神经翻译的基石,即跨语言共享表示;论文通过将编码器输出离散化为一系列条目的方式,提高了模型的鲁棒性和泛化能力,并尝试使用一种人造语言来分析模型的行为,发现类似的桥梁语言能够增加知识共享。
Nov, 2022
大型语言模型和机器人之间的映射,从语言和手动定义的意义形式表征到语言和高维向量空间之间的映射,有利于理解语言、限制学习问题规模以及提供解释性和正式安全性保证。将语言和感知数据嵌入高维空间可以避免手动指定的象征性结构,但需要更多的数据和计算进行训练,具备更广泛的适用性。本文讨论了每种方法的好处和权衡,并提供了实现两者最佳效果的未来工作方向。
May, 2024
研究了一个自然语言处理人工系统中句子的表征,分析表明存在一些启发式策略,通过训练分布,这些系统可以学习抽象规则并将其推广到新的环境中,但也存在一些推广行为上的缺陷。
Sep, 2019