提出了一种基于深度神经网络的自然语言处理模型的非对称特征交互解释模型,利用有向交互图表示解释,实验结果表明该模型在情感分类数据集上识别有影响的特征方面表现优异。
May, 2023
本文探讨了关于特征归因方法中的特征交互的问题,并提出了一种灰盒子方法,该方法能够更准确地反映目标模型的内部工作方式。通过在形式语言分类任务上训练模型,并针对性地选择特定的配置,本文展示了一些方法能够揭示模型所学的语法规则,并在对语言模型进行案例研究的基础上,提供了新的关于语言结构的见解。
Jun, 2023
本研究旨在检验特征归因法在不同深度学习架构模型间的泛化能力,以及探索归一化的特征解释方法在提高机器学习应用的可解释性和信任度方面的潜力。
Jul, 2023
近年来,神经网络展示出了从原始数据中识别复杂模式和关系的卓越能力。然而,理解这些黑盒模型的内部机制仍具挑战性,但对于高风险决策至关重要。我们的研究通过调查解释的基本和分布行为来解决这种困惑。此外,通过全面的模拟研究,我们展示了常见缩放和编码技术对解释质量的影响,评估它们在不同效应大小中的功效,并展示了基于排序的评估指标的不一致性的来源。
Apr, 2024
该研究提出了一种解释和增强黑盒推荐系统预测的方法,可以在不假设推荐系统结构的情况下使用,并且能够提供新的领域洞察,例如文本和图像分类。实验结果表明,该方法在广告点击预测方面的解释和预测性能显著优于现有的推荐模型。
Jun, 2020
机器学习模型的决策过程解释对于确保其可靠性和公平性至关重要。我们提出了一个统一框架,通过四个诊断属性实现了突出和交互式解释的直接比较,并揭示了不同诊断属性方面各解释类型的优势。突出解释对模型预测最为忠实,而交互式解释对于学习模拟模型预测提供了更好的效用,这些认识进一步凸显了未来研究发展结合方法以提高所有诊断属性的需求。
Jun, 2024
提出了一种新方法,即检测特征交互来构建分层解释,从而可视化不同层级中单词和短语的组合方式,帮助用户理解黑匣子模型的决策过程,并在 LSTMs、CNNs 和 BERTs 三个神经文本分类器的两个基准数据集上进行了评估,通过自动和人工评估实验证明此方法提供的解释既忠实于模型,又易于解释。
Apr, 2020
本文提出了一种基于放松的功能依赖概念的特征选择 / 归因的正式化方法,通过在合成数据集上计算基本真实的归因,评估了许多最先进的归因方法,并展示了即使在优化时,某些归因方法也无法验证所提出的属性并提供错误的解决方案。
Apr, 2021
通过论证的方式,提出了一种上下文感知特征归因的框架 CA-FATA,该框架将每个特征作为一个支持、攻击或中立预测的论证,通过论证过程进行特征归因计算,具有明确的语义和可解释性,并且能够整合用户上下文等额外信息以实现更准确的预测。
Oct, 2023
本文提供了两种流行的解释方法(Occlusion 和 Shapley 值)的模型无关实现,以无限制的交互方式实现不同的属性。利用已纠正的特征归属来生成额外的本地数据,通过在模拟和真实数据实验中展示我们提出的方法如何通过纠正的解释显著提高模型的性能。添加交互式解释以增加活动学习效率,显著优于现有的解释性交互策略。此外,本文探讨了领域专家如何提供足够正确的特征归属来改进模型。