高斯过程神经附加模型
由于深度神经网络在高风险领域应用时存在的不透明性,本文提出了一种名为神经添加模型(NAMs)的方法,将神经网络的表现力和广义可加模型的内在可解释性结合起来,令其在高风险领域有更好的应用前景,同时 NAMs 表现出了良好的性能,其可用于多任务学习及建立更复杂可解释的 COVID-19 模型。
Apr, 2020
本文从贝叶斯角度探讨神经相加模型,并开发了实用的拉普拉斯近似方法。研究结果表明,使用该方法得到的神经相加模型可以提高表格回归和分类数据集以及现实世界医学任务的性能和解释性。
May, 2023
通过引入层次神经加法模型(HNAM),本研究解决了机器学习预测方法准确性高但解释性差的问题。HNAM 是一种针对时间序列的加法模型,允许根据用户指定的交互层次来进行协变量交互。通过对真实世界的零售数据进行广泛评估并与其他最先进的机器学习和统计模型进行比较,实验结果表明,HNAM 不仅具备竞争性的预测性能,还能提供可信的解释。
Apr, 2024
本文提出了一种神经广义加性模型(NODE-GAM)和神经广义加性和模型(NODE-GA^2M),这种模型相对于其他集成和深度学习模型而言更具有可解释性,且可以自监督预训练以提高模型准确性。
Jun, 2021
本文提出了神经属性机(NAM),并研究了其在生成结构复杂的序列方面的效果。NAM 利用逻辑机器表示潜在的语法,并通过优化定制损失函数来教导神经机器语法的约束条件,相比仅从语法样本中训练的传统 RNN,在生成时违规约束条件的情况更少。
May, 2017
该研究论文介绍了一种可解释性图神经网络模型,名为 Graph Neural Additive Network(GNAN),通过直接可视化模型,可以在特征和图层次上提供全局和局部解释,展现模型在目标变量、特征和图之间的关系,实验证明 GNAN 与黑盒图神经网络在准确性上相当,因此适用于需要透明度的关键应用。
Jun, 2024
本文介绍了神经过程(NP)这一类神经网络模型,它拥有高效的计算能力、灵活的概率模型,可以适应新的数据,并能够估计其预测的不确定性。同时,神经过程也能像高斯过程一样对函数进行概率建模,具有延迟更新的能力。我们探讨了神经过程在回归和优化等任务中的表现,并与文献中的相关模型进行了对比。
Jul, 2018
提出了一种新的分类 GAMs 的方法,称为 Scalable Polynomial Additive Models (SPAM),通过多项式的张量秩分解来实现高阶特征交互,同时保证模型的可解释性和易扩展性,大幅度地优于现有的可解释方案,并在真实世界的各种基准测试中表现出与 DNN / XGBoost 相当的性能。
May, 2022