通过传播激活差异学习重要特征
DeepLIFT(重要特征学习)是一种有效的神经网络重要性分数计算方法,可用于训练自然图像和基因组数据模型,并在梯度法方法上具有显着优势。
May, 2016
介绍一种新颖的深度网络架构,实现了完整的特征点处理流程,包括检测、方向估计和特征描述,并展示了其在多个基准数据集上超过现有方法的性能表现,同时不需要重新训练。
Mar, 2016
本文提出一种新型的神经网络构架,利用基于惩罚项的训练问题来编码激活函数,这种框架可以被应用于 block-coordinate descent 算法中,该算法可以在每次迭代中通过并行化数据点和 / 或层数来解决简单(没有隐藏层)的监督学习问题,实验结果表明该方法为标准神经网络提供了极佳的初始权重估计,并且对于使用参数优化激活函数、对抗噪声数据的拓展也提供了思路。
May, 2018
本文介绍了一种新的 Fenchel lifted networks 的模型,通过等价的双凸约束表示激活函数,并使用拉格朗日乘数对传统神经网络训练问题得出严格下界,使用块坐标下降进行高效训练,并与标准全连接和卷积网络进行比较,证明我们能够匹配或超越其性能.
Nov, 2018
深度学习网络利用反向传播算法在大型数据集中发现复杂的特征,本文基于一个包括字母数据集的简单神经网络,引入实验解释了其隐藏层代表输入数据特征,接着试图通过逆向工程来找到字母数据集的自然特征集。深度生成模型能够发现给定数据集的自然特征集,而对于了解它们是如何生成的则至关重要。
Feb, 2022
本文探究了解释深度学习预测的方法对于随机扰动的敏感性,发现即使对于具有同一预测标签的两个感官不可分的输入,这些方法也会得出非常不同的解释结果,并分析了导致这种脆弱性的几何原因。
Oct, 2017
本文提出一种名为 InterActive 的算法,通过计算神经元和网络连接的活跃度,在神经网络中向下传播高级上下文,提高低级和中级神经元的描述性能,从而实现了广泛的图像分类。
Apr, 2016
本文旨在量化特征提取和泛化中深度与特征之间的对应关系,通过展示提取单一特征和复合特征的深度 - 参数权衡表明特征对深度的适应性和相反情况,并证明在深度网络上实现经典的经验风险最小化可实现多种学习任务的最优泛化性能,其理论结果通过一系列数字实验进行了验证。
Apr, 2020
通过将神经网络的激活转换为新的基础 - 局部互动基础(LIB),我们提出了一种新颖的可解释性方法,旨在识别计算特征,通过消除无关的激活和相互作用,以及基于它们对下游计算的重要性对特征进行缩放,生成显示模型中所有计算相关特征和相互作用的交互图。
May, 2024