SpArX: 神经网络的稀疏论证解释
本文介绍了一种基于生成对抗网络(GAN)架构的 SPARCE 方法,用于多变量时间序列的稀疏反事实解释,并在真实世界的人体动作数据集以及一个时间序列的解释性基准上得到了验证。
Jun, 2022
本文针对可解释模型的解释方法进行研究,提出了一种基于计算论证的 AXPLR 方法, 用于从特定的可解释模型 PLR 中提取易于理解的解释,并在人工智能协作方面进行了实证评估和两个实验的研究。
May, 2022
本文介绍了一种使用稀疏和局部超图神经网络(SpaLoc)学习解决大规模实际领域中这种问题的方法,其利用稀疏矩阵表示和信息足够性的抽样过程,提高了学习和推理的效率,并在几个实际且大规模的知识图谱推理基准测试中实现了最先进的性能。
Mar, 2023
解释性 AI 的一个关键问题是如何解释 Argumentation Frameworks (AFs) 的推理结果,而定量推理结果在 gradual semantics 下的解释尚未得到广泛关注。本文提出了一个新的 Argument Attribution Explanations (AAEs) 理论,通过在 Quantitative Bipolar Argumentation Frameworks (QBAFs) 中引入机器学习中的特征归因理念,研究 AAEs 的理论性质,并通过两个案例研究验证了 AAEs 在假新闻检测和电影推荐系统中的应用性。
Jul, 2023
通过添加稀疏加性子网络、投影追踪以及平滑函数逼近等结构约束,本文提出了一种可解释的神经网络模型,具有良好的预测性能与模型解释性,同时导出了所提模型的必要和充分可识别条件,采用一种基于 backpropagation 算法计算导数和 Cayley 变换维护投影正交性的改进型 mini-batch 梯度下降方法同时估计多个参数,并在六个不同场景下通过与其他多种方法的比较显示所提出的 xNN 模型保持了追求高预测准确率的灵活性的同时实现了改善的可解释性,并展示了一个真实数据应用案例。
Jan, 2019
本文提出了基于绑架式解释的机器学习方法,为自然语言处理中的神经网络模型计算局部解释。根据用户定义的代价函数,例如解释长度,优化词汇子集以满足两个主要特征。同时在嵌入空间中确保预测不变性,该方法通过内隐命中集和最大通用子集两种解法得出结果,并可以配置不同的扰动集来检测预测结果的偏见,提高 NLP 解释框架的效果。最后,文章在 SST、Twitter 和 IMDB 数据集上对三种常用情感分析任务进行了评估,并展示了该框架的有效性。
May, 2021
本论文提出了一种简单而通用的自说明深度学习模型的框架,通过添加一个解释层来聚合不同文本段落的信息并赋予权重,不需要额外的诱导模型,可以为高层次的文本单元提供直接的重要性评分,并在 SST-5 和 SNLI 数据集上取得了新的最好表现。
Dec, 2020
我们提供了一种针对稀疏连接的前馈神经网络进行训练的保证方法,在学习线性网络的先前技术的基础上,我们展示了它们也可以有效地用于学习非线性网络,并在涉及输入标签和得分函数的时候操作矩阵,证明它们在温和条件下可以产生深层网络第一层的权重矩阵,实践中,我们的方法的输出可以用作梯度下降的有效初始值。
Dec, 2014