使用二次训练数据对学习排序模型进行后证明可能性解释
本文提出了一种基于 RRL 的内在可解释模型,其可对每个特征分成三类构建三个类似于神经网络的子网络,每个子网络均可等效转换为一组规则,并通过学习二进制权重的技巧有效地训练,相比可解释的决策树在性能上更优,接近于其他黑匣子,是对金融机构和借款人具有实际意义的。同时,本模型还用于测试后评方法生成的解释的准确性,结果表明后评方法不总是可靠的。
Apr, 2023
本研究通过两种随机化测试,评估预训练 Transformer 编码器的神经文本分类器的可解释性解释的鲁棒性,并发现出乎意料的偏差,从而对实践者从解释中获得的深入的见解提出疑问。
Jun, 2021
本篇论文旨在实现一种系统评估 LTR 模型解释技术的方法,即通过决策树焕发的 ground truth 特征重要性得分,和这些解释技术产生的特征重要性得分进行直接比较,以此来比较 MQ2008 数据集上的 LTR 模型分别采用决策树和梯度提升模型时这两种解释技术的准确性,并表明这些技术的解释准确性很大程度上取决于所解释的模型和解释的数据点。
Mar, 2022
使用算法排序和可解释的 AI 方法实现透明的排名解释,通过可视化解释模型拟合和属性对排名的影响来探索和解释复杂的多属性排名数据的子集和分组,在不了解黑盒排名模型的情况下,帮助具备数据科学训练的最终用户透明地推理排名的全局和局部行为。
Aug, 2023
本篇论文介绍了基于反向传播、扰动和近似等后处理方法的时间序列模型后解释的广泛范围。我们提出了内在可解释模型的新颖类别,并介绍了用于说明的常见评估指标及时间序列可解释性问题未来研究的方向。
May, 2023
本论文介绍了一种搜索系统 EXS,利用解释模型 LIME,针对神经排序器等复杂模型进行解释,以提供搜索查询意图、文档排名和相关性的解释和改进建议。
Sep, 2018
本文讨论了在没有任何关于分类器或数据的信息的情况下解释分类器预测的任务,提出了一种基于实例的方法,用于确定改变预测所需的最小改变,并将其实现为使用 Growing Spheres 算法进行观测生成的原则。实验结果表明,该方法具有实用性,并可用于了解分类器。
Dec, 2017
本文提出了一个完整的框架,将基于概念的解释性方法扩展到 NLP 领域, 提出了一种后期解释性方法,从预训练模型的隐藏层激活中提取具有预测高水平特征(概念),优化具有高影响力的特征的存在,设立了多种评估指标。在真实和合成任务上的广泛实验表明,与基线相比,我们的方法在预测影响、可用性和忠实度方面都取得了卓越的结果。
May, 2023