DeepPINK: 深度神经网络可重复的特征选择
我们提出了一种新的通用特征排序方法,该方法在静态和时间序列场景中在多个数据集上表现良好,可用于分类和回归等任务,并且应用于药物反应数据集时能够识别与药物反应相关的基因。
Dec, 2017
通过深入的认识深度神经网络模型与传统科学模型之间的差异以及对可靠性评估可能产生的影响,本文强调了模型的假设的普遍作用和认识复杂性与可解释性之间的紧密关系,并提出了一些潜在的解决途径。
Jan, 2024
本文提出了一种构造选择分类器的方法,可在风险可控的情况下使用深度神经网络进行分类,解决了在深度神经网络中使用拒绝选项技术的问题,有效提高了分类器性能,成功实现了在 ImageNet 上顶部 5 项分类的 2% 错误率,并且测试覆盖率达到近 60%,为深度神经网络在关键应用中的应用提供了可能性。
May, 2017
本文介绍了深度神经网络的可解释性研究及其方法,指出目前的方法存在的局限和风险,并提出了以可证伪性为核心的新的研究框架,目的是为了产生更具意义和可靠的可解释性方法。
Oct, 2020
本文提出了一种名为 FsNet 的 DNN 基于非线性特征选择方法,针对高维度和小样本数据。实验结果显示,该方法在多个真实的生物数据集上表现出较高的有效性。
Jan, 2020
本文提出了一种衡量深度神经网络特征重要性估计的近似准确性的经验方法,研究发现,在许多流行的可解释性方法中,只有某些集成方法,如 VarGrad 和 SmoothGrad-Squared,才能胜任随机指定特征重要性的任务。
Jun, 2018
本文旨在量化特征提取和泛化中深度与特征之间的对应关系,通过展示提取单一特征和复合特征的深度 - 参数权衡表明特征对深度的适应性和相反情况,并证明在深度网络上实现经典的经验风险最小化可实现多种学习任务的最优泛化性能,其理论结果通过一系列数字实验进行了验证。
Apr, 2020
通过概率抽样,研究了五种新的基于抽样的测试技术以及其他三种先进技术,以实现对深度神经网络在运行中准确度的忠实和高置信度估计,从而降低成本。
Mar, 2024
本文通过图像分类示例调查深度学习(DL)训练算法的不确定性及其对神经网络(NN)模型可解释性的影响,探讨了创建实用性强的确定性,鲁棒性高的 DL 模型和确定性可解释人工智能(XAI)的可行性。并说明了其工作的成功与局限性,确定性模型的源代码已在本文中列出,同时介绍了欧盟在卓越人工智能的框架内提出的模型治理框架开发阶段组件所标注的可重复性,并探讨了在实现可重复性的过程中需要解决的问题以及处理某些问题的方法。
Feb, 2022