Apr, 2024
使用修剪的逐层相关传播稀疏解释神经网络
Sparse Explanations of Neural Networks Using Pruned Layer-Wise Relevance Propagation
Paulo Yanez Sarmiento, Simon Witzke, Nadja Klein, Bernhard Y. Renard
TL;DR我们提出了一种修改后的解释方法,通过修剪不同层的相关传播来降低噪音,同时集中关注最重要的特征,从而提高深度神经网络输出的解释性。