神经网络的生理机制可解释性
本文探讨了如何利用深度学习来研究神经健康以及在算法模型中解释神经分析的困难。其重要贡献在于调查死亡神经元对人工神经网络性能的影响,以评估这些发现在生物领域的潜在应用,可能对神经系统疾病的治疗有重要影响。
Jun, 2023
该篇论文综述了深度神经网络在机器学习中的应用,针对一些需要保证安全性的决策(如控制系统和医疗应用),介绍了当前解释性人工智能(XAI)领域的研究,探究和解释 DNNs 内部和整体行为的方法。
Feb, 2021
通过对感知神经元输入输出映射建模的深度前馈神经网络提出新的计算机制提取系统方法,将此方法应用于视网膜深层网络模型。研究揭示了视网膜的预测特征提取以及各种时空刺激下信号偏离期望的计算机制,为神经科学深度学习研究提供了 新的理论基础和研究方向。
Dec, 2019
该研究综述了计算神经科学家开发的数据分析概念和技术如何有助于分析深度神经网络(DNN)中的表示,并探讨了近期发展的 DNN 分析技术如何有助于理解生物神经网络中的表示,为神经科学和机器学习领域提供了协同机会,例如使用 DNN 作为神经科学的模型系统,并探讨了这种协同怎样能够产生有关生物神经网络操作原理的新假设。
Oct, 2018
这篇论文调研了模拟生物可行的信用分配规则在人工神经网络中的多个重要算法,并讨论了它们在不同科学领域的解决方案以及在 CPU、GPU 和神经形态硬件上的优势,最后讨论了未来需要解决的挑战,以使这些算法在实际应用中更加有用。
Feb, 2024
通过一系列的实验,我们评估了当前基于视觉的大型语言模型在直觉物理、因果推理和直观心理领域的表现。我们的研究结果表明,尽管这些模型在处理和解释视觉数据方面表现出显著的能力,但在这些领域仍然不如人类。这些模型对物理定律和因果关系有基本的理解,但缺乏更深入的洞察力 - 人类认知的一个关键方面。此外,在需要直觉心理理论的任务中,这些模型完全失败。我们的结果强调了将更强大的理解因果关系、物理动力学和社会认知机制整合到现代基于视觉的语言模型中的必要性,并指出了认知启发式评估标准的重要性。
Nov, 2023