- 研究模型不稳定性对解释和不确定性的影响
通过人为引入噪音来模拟文本输入的认知不确定性,在大规模实证研究中,我们插入不同级别的噪音扰动,并测量其对预训练语言模型输出和不同不确定性度量的影响。实际扰动对性能和解释几乎没有影响,而掩饰却有极大影响。我们发现在训练过程中暴露噪声时,高不确 - 通过对比和局部稀疏扰动解释时间序列
通过引入对照学习和样本特定的稀疏门机制,ContraLSP 方法在解释质量方面对时序数据进行了实质性改进,为多变量时间序列、显著性方法、分布偏移问题、对照样本和解释质量等方面的研究提供了新的见解。
- 发掘大型语言模型在可解释推荐中的潜力
通过使用大型语言模型 (LLMs),我们提出了简单而有效的两阶段解释性推荐框架 LLMXRec,旨在进一步提高解释质量。与大多数现有的基于 LLM 的推荐系统不同,LLMXRec 侧重于先前推荐模型与基于 LLM 的解释生成器之间的紧密协作 - 推荐的自然语言解释中的连贯性问题
提供自然语言解释对于非专业用户尤为有用,然而目前常用的评估方法未能充分捕捉解释和预测之间的连贯性,因此本文通过人工验证、自动连贯性评估方法和基于 Transformer 的新方法阐明了这个问题,并进行了实验评估,结果表明该方法明显提高了解释 - 提升自解释理性化的理据 - 输入一致性
通过合作游戏,合理化赋予深度学习模型自我解释能力;本研究发现理性化容易出现的理性转移问题;为解决这个问题,提出一种新方法 DAR,通过辅助模块对齐选定理性和原始输入;实验证明 DAR 显著提高了解释质量,并在两个合成设置上进一步验证了其有效 - 脉冲神经网络的特征归因解释
我们提出了一种基于时间脉冲归因的解释方法,用于解释第三代人工神经网络,尖峰神经网络(SNNs),并评估其在人工和现实时间序列数据上的解释质量。
- EMNLPHARE:可解释的仇恨言论检测配有逐步推理
通过使用大型语言模型 (LLM) 的推理能力填补对仇恨言论解释中的知识缺口,我们提出了一种新的仇恨言论检测框架 HARE,该方法使用模型生成数据相较于已有人工注释的基线,能够持续优于其他方法,并 verbess ustheeoub 井 un - 关于适当信任的定义及其相关工具
通过比较定义和模型性能评估,本文提出了一种新颖的方法来评估适当的信任,包括针对用户表现的几种简单直接的评估方法,包括建议一种测量回归中不确定性和适当信任的方法。
- 评估可解释的部分 - 原型图像分类器的 Co-12 配方
解释性部分原型模型在设计上可解释的计算机视观模型。这篇论文回顾了现有研究,评估了解释性部分原型模型的解释质量,揭示了研究空缺,并概述了未来对解释性部分原型模型解释质量评估的方法。该论文旨在推进和成熟相对较新的解释性部分原型模型研究领域。此外 - 使用人工模拟研究量化图神经网络属性解释的固有用处
本文介绍了在图神经网络中使用基于模拟的方法来量化加权图解释的固有有用性,发现相应的解释可以显著提高图神经网络的样本效率。作者认为这种有用性给出的是解释质量的一个维度,可被用作解释质量评估的新工具,特别是在图解释中。
- 解释质量评估中的挑战
本文探讨了解释质量的评估以及当前主流的代理分数评价方法的问题,得出代理分数与人类评分相关性较差,且使用频率越高表达能力越弱的结论,最终提出指导方针以实现有意义的评价和推动系统的发展。
- 评估视频 DeepFake 检测器解释的数量指标
介绍了一个用于评估视频 DeepFake 分类器解释质量的指标集,并比较了提高解释质量的常见方法及其对分类性能和解释性能的影响。
- 基于原型的自解释图神经网络
本研究提出了一种框架,可以学习原型图,从而同时提供准确的预测和基于原型的解释,用于自我解释的图神经网络,实验结果表明其在真实和人工数据集上都具有良好的预测和解释质量。
- KDD一个稳健的指导视觉解释的框架
提出了使用 RES 框架进行监督解释的方法以提高深度神经网络的外推泛化性和内在的可解释性,该框架可解决标注不准确、区域不完整和分布不一致等挑战,经测试在两种实际图像数据集上均表现较好。
- 衡量可解释性方法质量的解释质量评分
该研究提出了一种新的用于评估解释可能性方法生成的解释质量的度量标准,并利用六种解释可能性方法在三个 NLP 任务上计算和展示了度量标准的结果。
- 解释方法质量评估标准的元调查
通过文献调研和元分析,我们建议采用适当的信任作为衡量主观评价标准结果的标准,并提出了一个解释质量方面的模型,其中类似定义的标准被分组,并与三个识别出的质量方面相关联:模型、解释和用户。最后我们提出了一个包含四个常用标准(群)的模型,涵盖了解 - ICML正则化黑盒模型以提高可解释性 (HILL 2019 版本)
本文提出了一种新的方法,即在训练时直接对黑盒模型进行可解释性正则化,以改善解释效果,提高模型的可解释性,并保持一定的准确性。