Dec, 2018
机器人大脑消融:神经网络受刀削影响
Ablation of a Robot's Brain: Neural Networks Under a Knife
Peter E. Lillian, Richard Meyes, Tobias Meisen
TL;DR本文提出了一种新颖的方法来确定神经网络内部信息的结构,通过神经科学的切除技术(ablation),从生物学角度分析了几种神经网络架构,研究了生物神经网络和人造神经网络之间的重要相似之处,以寻找隐含在网络权重中的隐式知识。
Abstract
It is still not fully understood exactly how neural networks are able to
solve the complex tasks that have recently pushed AI research forward. We
present a novel method for determining how information is structured inside a
neural network. Using →
发现论文,激发创造
人工神经网络中的消融研究
本文通过两种不同的人工神经网络在计算机视觉领域常见的基准数据集进行消融实验,研究了神经网络的内部表征和结构损伤的鲁棒性,并探讨了消融研究在人工神经网络中的可行性及其对于未来安全关键应用的重要性。
Jan, 2019
神经网络的内部结构:基于功能神经元群和网络消融的学习表示特征表征
本文研究神经网络的透明度缺乏问题,通过对激活模式和网络消融的表征,揭示了在完成学习任务时单个神经元和神经元群体的作用,强调了为未来的转移学习和现代神经科学发展提供必需指标的重要性。
Apr, 2020
从生物到人工神经网络的转化与借鉴
本文探讨了如何利用深度学习来研究神经健康以及在算法模型中解释神经分析的困难。其重要贡献在于调查死亡神经元对人工神经网络性能的影响,以评估这些发现在生物领域的潜在应用,可能对神经系统疾病的治疗有重要影响。
Jun, 2023
人工神经网络中基于大脑启发的学习策略综述
本篇论文全面综述了现今人工神经网络中基于仿生学学习机制的表示,研究了加入更多仿生意义机制如突触可塑性以加强网络能力的可能性和挑战,并找到未来的研究方向,以更深入理解智能的本质。
May, 2023
深度学习与神经科学的集成
本文考虑在神经科学和机器学习之间建立联系,提出脑部通过优化各式各样的代价函数来实现数据高效学习和定向行为,其中包括关注、递归等结构体系和各种形式的短时和长时记忆存储,作者提出了未来神经科学试图改进和检验这些假设的方向。
Jun, 2016
自构建神经网络
为了在任务执行期间自动构建神经网络结构提出了一种自构建神经网络(SBNN)。 该模型采用 Hebbian 学习和修剪相结合的方法,以拟合神经元的突触形成过程。 在与传统神经网络的比较中,结果表明其表现通常优于传统神经网络,并且在验证测试中 SBNNs 比传统神经网络更适应新任务,特别是在注重权重修剪的情况下。
Apr, 2023