用于解释模型预测的非对称特征交互
本研究介绍了 Integrated Hessians,这是 Integrated Gradients 的扩展,用于解释神经网络中的成对特征交互;与以前的方法相比,Integrated Hessians 具有更快的速度和更好的性能,适用于各种神经网络架构或类别。
Feb, 2020
提出了一种新方法,即检测特征交互来构建分层解释,从而可视化不同层级中单词和短语的组合方式,帮助用户理解黑匣子模型的决策过程,并在 LSTMs、CNNs 和 BERTs 三个神经文本分类器的两个基准数据集上进行了评估,通过自动和人工评估实验证明此方法提供的解释既忠实于模型,又易于解释。
Apr, 2020
本文探讨了关于特征归因方法中的特征交互的问题,并提出了一种灰盒子方法,该方法能够更准确地反映目标模型的内部工作方式。通过在形式语言分类任务上训练模型,并针对性地选择特定的配置,本文展示了一些方法能够揭示模型所学的语法规则,并在对语言模型进行案例研究的基础上,提供了新的关于语言结构的见解。
Jun, 2023
本文提出了一种基于指导特征反演框架的深度神经网络解释模型,可以确定神经网络中每个特征的贡献并提供决策过程的洞见,通过与 DNN 模型输出层目标类别的神经元进一步交互,我们强制解释结果具有类别区别能力,实验证明了我们提出的框架在提供 DNN 预测的类别判别性解释方面的有效性。
Mar, 2018
本文提出了一种新型的可解释深度神经网络的解释,通过使用掩蔽权重,可以将隐藏特征分解成几个输入限制的子网络,并训练成专家混合的增强模型,为复杂的机器学习模型提供说明,提高其效率,并实现了对合理解释进行推荐任务。
Aug, 2020
该研究提出了一种解释和增强黑盒推荐系统预测的方法,可以在不假设推荐系统结构的情况下使用,并且能够提供新的领域洞察,例如文本和图像分类。实验结果表明,该方法在广告点击预测方面的解释和预测性能显著优于现有的推荐模型。
Jun, 2020
本文在两种 NLP 任务和两种模型上,比较了五种最近的特征归属方法和两种注意力方法之间的等级相关性,并发现注意力方法与其他特征归属方法的关联度较低,建议停止使用等级相关性作为注意力解释的评估指标。
May, 2022
本文提出了一种新的模型叫做 Feature Interaction Graph Neural Networks (Fi-GNN),可以用于解决 Web 应用中在线广告和推荐系统等任务的 click-through rate(CTR)预测问题。该模型利用图的强大特征表示能力,可以灵活、明确地建模复杂的特征交互,同时还能提供很好的模型解释性,并在真实数据集上得到了优于现有技术的实验结果。
Oct, 2019