- 利用分面 Rasch 测量和多任务深度学习构建区间变量:恶意言论应用
本文介绍了一种新的方法,将有序调查项转化为连续结果。作者使用监督深度学习和筛选性的 Rasch 物品反应理论(IRT)进行复杂变量的测量,并测试了多项语言模型的预测准确性。该模型还采用了多任务深度学习体系结构,将有序变量作为神经网络内部概念 - SUBPLEX:针对子群体层面的黑盒模型解释的更好理解
该研究旨在提出一种名为 SUBPLEX 的基于可视化分析方法的机器学习模型解释系统,通过子人群分析对 ML 模型的解释进行可视化,从数据集的不同维度探索解释。通过用户评估发现,该系统能够促进用户构思更为巧妙的创意,提高用户对 ML 模型解释 - KDD对抗式不忠学习用于模型解释
提出了一种 MEED 框架,其中包括了用于模型解释的实例特征选择技术和基于对抗性不忠诚学习的解释器的设计,以及整合了有效解释方法作为良好的先验知识的扩展, 实验结果表明该方法效果优越,可应用于数据挖掘和知识发现。
- ACL将忠实的解释与社会归因对齐
本研究旨在探讨模型解释的 “忠实性” 问题,提出了应准确刻画因果关系,实现对齐忠实性和期望社会行为的概念,并通过对比解释实现了对替代因果链的解释,并弥补了 misaligned faithful highlight interpretati - ACL构建学习的忠实理性化
提出了一种名为 FRESH 的简化模型解释方法,通过使用任意的特征重要性分数来导出二进制标签以训练提取器,再用提取器提供的片段训练独立分类器模块,从而构成可信解释,具有超越端到端方法的预测性能优势并更容易实现。
- 深度神经网络的快捷学习
本文介绍深度学习中的 shortcut learning 问题,该问题用于在标准基准测试中表现良好的决策规则在更具挑战性的测试条件下失败,作者提出了一些模型解释和基准测试的建议,以改善从实验室到真实世界应用的稳健性和可迁移性。
- ACL机器阅读理解的基准评测:心理学视角
该论文提出了基于心理学和心理测量学的 MRC 数据集设计理论基础,要求未来的数据集应该评估模型构建上下文相关情境的合理和连贯的表示能力,并通过防止捷径的问题和解释来确保实质性有效性。
- 用于图结构数据的卷积核网络
本文介绍了一种多层图形核的家族,并建立了图卷积神经网络与核方法之间的新联系。利用核特征图形的序列表示图形数据,从而将卷积核网络推广到了图形结构数据,实现了高效的数据表示和训练。在多个图形分类基准测试中,该方法实现了竞争性的性能,同时提供了简 - 自注意力网络的特征重要性估计
本文旨在探索利用基于注意力机制的神经网络对特征进行重要性排序以用于模型解释的方法,通过对十个数据集进行规模无关的特征重要性估计算法比较的研究,展示了利用自注意力网络(SAN)对特征进行排序与其他方法在高级别特征识别上的相似性,以及在某些情况 - IJCAIDeepView: 使用判别性降维将深度神经网络分类边界可视化为散点图
本文提出利用区分维度约简的二维可视化方法将深度神经网络决策函数的一部分以及数据集的一部分可视化,从而检测模型对数据的不同属性(如异常值、对抗样本或毒瘤数据)的处理方式,该方法与现有文献中的解释方法互补,更有应用前景。
- EMNLPAllenNLP Interpret: 解释自然语言处理模型预测的框架
该研究提出了 AllenNLP Interpret,一种灵活的框架,用于解释 NLP 模型,并提供了各种内置的解释方法和前端可视化组件,以展示其灵活性和实用性。
- 生成式对抗性内省:可解释深度学习
本研究提出了一种基于生成模型的深度神经网络内省技术,使图像编辑更容易进行模型解释,该技术通过干预操作获取答案来回答反事实查询问题。在 MNIST 和 CelebA 数据集上使用所提出的内省方法揭示了给定分类器的有趣特性。
- ACLTransformer 模型中的注意力的多尺度可视化
通过使用注意力机制,Transformer 模型不仅在性能上有所提升,同时还可通过可视化工具展示模型如何赋权于不同的输入元素,从而实现模型的解释和解读,本文提出了一种开源的基于多尺度可视化注意力机制的工具,并在 BERT 和 OpenAI - 使用 Shapley 值解释联邦学习
本文介绍了 Federated Learning 技术以保护隐私,在纵向 Federated Learning 中,我们提出了一种使用 Shapley Value 方法实现了对主主机特征进行详细说明和对联邦客户特征进行统一说明的方法,以平衡 - 通过输入不确定性理解深度神经网络
利用轻量级概率网络,将预测不确定性纳入灵敏度分析以及通过不确定性分解的新方法进行模型解释,最终提高了模型的鲁棒性和推广能力,并从输入域的不确定性解释预测不确定性,从而提供了验证和解释深度学习模型的新方法。
- L-Shapley 和 C-Shapley:用于结构化数据的高效模型解释
本研究探讨了实例级特征重要性评分作为模型解释方法,并提出两种线性复杂度的算法来评估图结构数据中的特征贡献,并与其他模型解释方法进行比较。
- MMCTR 预测中深度神经网络的可视化与理解
本文采用深度学习技术实现 Click-through rate(CTR)预测,并采用神经元级别检查模型内部状态,实施逐层性能测量探针方法,以及基于反向传播梯度的显著性分数计算来计算特征的影响。该模型可用于理解,监视,诊断和改进模型和算法的多 - ACL神经语义分析的置信度建模
本研究致力于神经语义分析器的置信度建模,设计了各种度量标准来估计置信分数和确定哪些输入因素会导致不确定的预测,结论表明我们的模型显著优于传统方法并且提高了模型解释的质量。
- ICML学习解释:模型解释的信息论视角
我们引入了实例级别特征选择作为模型解释的一种方法,基于学习一个函数来提取最具信息价值的特征集合,利用变分逼近互信息,最大化选择特征和响应变量之间的互信息,我们在各种合成和真实数据集上展示了方法的有效性,并使用定量度量和人类评估进行了验证。
- CVPR训练、诊断和修复:一种可解释的细粒度动作识别方法
该论文提出了一种利用系统化解释来解释 Residual Temporal Convolutional Networks 模型参数和隐藏表示的方法,同时基于模型解释分析的发现,提出一种针对各种识别模型的目标细化技术,验证表明该方法是一种有效的