ExMo:使用反频率决策规则的可解释人工智能模型
提出了一种名为 Preferential MoE 的人类 - 机器学习混合专家模型,它可以根据决策中有无人类专家经验的必要性,在需要时对数据分类器进行增强。该模型展示了可解释的门控函数,提供何时遵循或避免人类规则的信息。提出了解决具有凸次问题的耦合多目标问题。提出近似算法并研究其性能和收敛性。最后,我们演示了 Preferential MoE 在治疗人类免疫缺陷病毒(HIV)和管理重度抑郁症(MDD)的两个临床应用中的实用性。
Jan, 2021
本文提出了一种交互式叠加方法,该方法利用机器学习模型的预测能力,同时允许用户指定决策边界的修改,从而实现在不需要重新训练模型的情况下对决策系统进行实时修改,并展示了用户反馈规则可以与机器学习预测结合以支持更少数据的学习。
Mar, 2022
本文介绍了一种名为指数机的预测器,它使用一个名为张量分解(Tensor Train)的因式分解格式来表示指数数量级的参数,并采用随机 Riemannian 优化过程来训练模型,从而在许多领域的机器学习解决方案中提高了性能。该模型在合成数据模拟高阶交互作用方面表现出最新的性能,并在推荐系统数据集 MovieLens 100K 上与高阶因式分解机表现相当。
May, 2016
在可解释人工智能(Explainable AI)中,我们提出了一种模型无关的方法,用于从特定的数据子组中提取规则。该方法通过自动生成数字特征规则,增强了机器学习模型的区域可解释性,并在高维空间中降低了计算成本。在各种数据集和模型的实验中,我们的方法表现出了很好的效果。
Jun, 2024
通过利用人们提出 “为什么这个输出(事实),而不是那个输出(替代品)?” 这个问题的倾向,使用本方法利用局部训练的决策树来识别导致树将数据点分类为替代品而不是事实的不相交规则集,从而减少要素数量。
Jun, 2018
本文提出了一种基于学习模糊加权规则的可解释连续变量预测新方法,采用符号和非符号混合方法和领域知识约束来实现透明可解释性,并在预测吸烟戒断行为干预结果研究中展示出比其他可解释方法更好的性能。
Aug, 2022
提出了一种模型无关方法 DeltaXplainer,用于生成基于规则的解释,描述二进制分类器之间的差异,以实现对机器学习模型的理解和选择。通过在合成和真实数据集上进行实验,涵盖不同类型的概念漂移,验证了 DeltaXplainer 的有效性。
Sep, 2023
通过优化深度神经网络的预测性能,我们提出了插入与删除度量感知的基于解释的优化方法(ID-ExpO),使得流行的后置解释器能够产生更忠实且易于理解的解释,同时保持高的预测准确性。
Oct, 2023