神经网络概念的单元测试
本研究介绍了两种神经网络的概念视图,即多值视图和符号视图,并通过在 ImageNet 和 Fruit-360 数据集上的实验测试了其概念表达能力。此外,论文还展示了这些视图可以量化不同学习架构之间的概念相似度,并演示了如何将概念视图应用于从神经元中归纳学习人类可理解的规则,从而为全局解释神经网络模型做出贡献。
Sep, 2022
该研究审查了通过提出分类法来将人类可理解的概念与神经网络中的内部表示相对应的研究,并发现了与模型可解释性目标有关的文学研究中的歧义,即是理解机器学习模型还是在部署领域有用的可行解释。
Dec, 2022
综述了最近的方法来解释神经网络中的概念,强调了将学习和推理结合起来的重要性,并探讨了将概念知识插入神经网络架构的可能性,为实现基于可解释概念的神经符号人工智能迈出重要一步。
Oct, 2023
提出一种神经动力学机制 (conceptors),它将非线性动力学与基本的概念抽象和逻辑原则相结合,可以在一个神经系统中学习、存储、抽象、聚焦、变形、概括、去噪和识别大量的动力学模式。
Mar, 2014
在现代架构上,使用随机梯度下降算法训练模型可以更好地了解抽象概念,但仍然需要不断交互和验证以理解物理概念,并通过控制数据采集过程获得积极的观察结果。然而,使用有限的资源和时间将物理实体绑定到数字身份是解决信号到符号障碍问题的一个潜在方法,但需要不断的验证和咨询。
Jul, 2022
该论文提出了一种新的基于晦涩数据生成分层概念结构的符号方法,不需要训练即能生成丰富易读的概念表示,并具有高组合性、正式推理和泛化和分布式学习的内在能力。
Jul, 2023
本文探讨了神经网络模型中输入变量之间互动和由此定义出的概念所代表的意义是否真实可靠,经过大量实证研究,发现训练良好的神经网络模型往往可以获得稀疏、可转移和有区分性的概念,这部分与人类观点相符合。
Feb, 2023
神经网络学习过程中,通过自组织映射可以视觉和计算地检测神经网络各层激活向量与抽象概念之间的对应关系,并且相对熵可以用作一种合适的方法来识别和定位概念的神经表示,实现概念的可视化并理解其在解决预测任务中的重要性。
Dec, 2023
通过一个称为 Concept-Monitor 的框架以及一个新的统一的嵌入空间和概念多样性度量方法,我们提出了一个通用的框架,可以自动帮助我们了解黑箱 DNN 训练进程,并且对 DNN 培训过程进行可解释的可视化,还提出了一个新的训练正则化器,以激励隐藏神经元学习不同的概念,从而改善培训表现,并应用于敌对培训、微调和网络修剪等几个情景中。
Apr, 2023