本文研究了平均场变分贝叶斯神经网络的表示能力,发现相比于标准深度神经网络,BNN 更不可能编码复杂的概念,但这并不一定意味着表示能力差。
Feb, 2023
本文探究了卷积神经网络 CNN 中通过对输入进行概念识别达到决策的关系,通过考察场景识别 CNN 对 ADE20k 数据集的训练结果,找到并评分给定输入概念的最小分布式表示强度,证实了概念识别对 CNN 决策具有影响力,经常出现在少数场景中的理解程度高的概念表明了正确决策,但认识到许多场景中共同的概念可能会误导 CNN。
Nov, 2017
该研究探索了深度神经网络的解释性人工智能,并开发了一种从共享的网络中提取交互信息的方法,以更好地反映不同网络之间的共享知识。
Jan, 2024
从交互概念的角度解释深度神经网络的泛化能力,定义交互概念的复杂性,发现简单概念可以更好地推广到测试数据,研究发现学习复杂概念的绕道动态解释了复杂概念的高学习难度和低泛化能力。
该论文通过提出一种将大型语言模型的推理逻辑解释为一组符号概念的方法,探讨了大型语言模型是否编码了稀疏的符号概念,并将 LLMs 的推理分数分解为少量的符号概念,验证了这些符号概念的可迁移性和可对 LLMs 的预测错误进行解释的重要性。
Apr, 2023
通过证明 AI 模型对不同交互概念的输入输出方式的映射,本研究试图证明,大多数 AI 模型可使用少数交互概念来在任意遮掩样本上模拟模型输出。
May, 2023
本研究提出了关于符号概念的理论,并使用一个简单的视觉概念学习任务来评估多个现代神经结构与该理论的一致程度,发现这些模型可以成功通过测验,但在因果关系方面仍然存在重要的问题。
Jul, 2022
综述了最近的方法来解释神经网络中的概念,强调了将学习和推理结合起来的重要性,并探讨了将概念知识插入神经网络架构的可能性,为实现基于可解释概念的神经符号人工智能迈出重要一步。
Oct, 2023
在现代架构上,使用随机梯度下降算法训练模型可以更好地了解抽象概念,但仍然需要不断交互和验证以理解物理概念,并通过控制数据采集过程获得积极的观察结果。然而,使用有限的资源和时间将物理实体绑定到数字身份是解决信号到符号障碍问题的一个潜在方法,但需要不断的验证和咨询。
本论文在研究深度神经网络的高层特性时,发现高层单元与随机线性组合之间没有明显差别,并得出神经网络学习的输入输出映射具有不连续性以及网络可被微小扰动误分类等结论。
Dec, 2013