Archipelago 为一种交互式的注释框架,通过一系列的实验,相较于其他方法,它可以更好地给出深度神经网络的解释。
Jun, 2020
提出一种从表格数据中提取可立即解释的人类可理解分类器的方法,并使用 Answer Set Programming 实现,其优点是分类器长度短且容易理解,与参考方法相比准确度相近。
Jun, 2024
通过在农业环境中使用多标签来设计目标特定的特征交互方案,以寻找最佳特征组合,本研究提出了一种与全局敏感性分析相结合的特征解释方法,可在多目标预测中实现组合优化,初步实验结果表明基于解释的方法能够在较少迭代次数内找到减少病原体存在的特征组合。
Feb, 2024
提出了一种基于深度神经网络的自然语言处理模型的非对称特征交互解释模型,利用有向交互图表示解释,实验结果表明该模型在情感分类数据集上识别有影响的特征方面表现优异。
May, 2023
研究了自然语言分类中交互的潜力,提出了一种基于限制性的交互形式来进行意图分类,系统通过二进制或多项选择问题来提取额外信息,在提取信息与做出最终分类预测之间进行权衡。通过两个领域的实验证明了交互的优势和平衡请求附加信息与做出最终预测的学习的益处。
Nov, 2019
通过修改树的分割方式,相对传统的随机森林算法和极端随机树算法,提高了模型在纯互作用关系占主导地位的场景中的拟合能力。
本文提出了一种通过量化筛选医学图像数据集属性的风险,在确定性和效用之间进行分解的技术,以识别深度学习算法中可能导致偏见的细微因素,并通过通过真实反事实的比较性能证明了其有效性和灵敏度,最后将该方法应用于一种流行的皮肤病变数据集的自然属性中,并演示了其成功。
Apr, 2023
本研究通过收集人类和数据科学、统计学以及工程专家的反馈,分析了数值属性的分割,提出了两种度量方法,结果显示约 68.7% 的人类反馈与我们的度量方法一致,因此我们的度量方法可作为一种用于数值属性离散化的方法之一。
Nov, 2023
本文探讨了关于特征归因方法中的特征交互的问题,并提出了一种灰盒子方法,该方法能够更准确地反映目标模型的内部工作方式。通过在形式语言分类任务上训练模型,并针对性地选择特定的配置,本文展示了一些方法能够揭示模型所学的语法规则,并在对语言模型进行案例研究的基础上,提供了新的关于语言结构的见解。
Jun, 2023
提出了一种新方法,即检测特征交互来构建分层解释,从而可视化不同层级中单词和短语的组合方式,帮助用户理解黑匣子模型的决策过程,并在 LSTMs、CNNs 和 BERTs 三个神经文本分类器的两个基准数据集上进行了评估,通过自动和人工评估实验证明此方法提供的解释既忠实于模型,又易于解释。
Apr, 2020