Jan, 2019

通过架构约束增强神经网络的可解释性

TL;DR通过添加稀疏加性子网络、投影追踪以及平滑函数逼近等结构约束,本文提出了一种可解释的神经网络模型,具有良好的预测性能与模型解释性,同时导出了所提模型的必要和充分可识别条件,采用一种基于 backpropagation 算法计算导数和 Cayley 变换维护投影正交性的改进型 mini-batch 梯度下降方法同时估计多个参数,并在六个不同场景下通过与其他多种方法的比较显示所提出的 xNN 模型保持了追求高预测准确率的灵活性的同时实现了改善的可解释性,并展示了一个真实数据应用案例。