欺诈检测的实例级解释:以案例研究为例
本研究提出了一种基于事例推理的方法来评估机器学习模型预测的可信度,并通过可视化的方式呈现之前相似的情况,进一步证明了该方法对于处理欺诈检测中的机器学习警报具有实用性和易用性。
Jul, 2019
研究介绍了使用联邦学习和可解释的人工智能的新方法来解决金融机构在欺诈检测方面面临的挑战,该方法能够在保护数据隐私的同时提高检测系统的性能,并具备透明性和可解释性。
Dec, 2023
该研究通过一个众包实验,探讨解释机器学习模型的预测对人类是否具有帮助,并发现在给定特征系数的情况下,人们能够更有效地对线性词袋模型进行操纵,但解释对 BERT 型分类器并没有显著提高操纵能力,而通过伪造 BERT 模型的线性模型的对全局归属的解释则可以有效地操作 BERT 型模型。
Dec, 2021
该研究利用欺骗检测作为实验平台,研究了如何利用机器学习模型的解释和预测来提高人类表现,并保持人类主体性。结果表明,机器预测的解释可以促进人类表现的提高,而这种提高与机器高性能的明确建议具有相似的效果。
Nov, 2018
基于深度学习模型的漏洞检测器已被证明在最近几年中取得了显著效果。然而,这些检测器决策过程的不透明性使安全分析人员难以理解。为解决这个问题,各种解释方法被提出来通过突出重要特征来解释预测结果,在计算机视觉和自然语言处理等其他领域已经被证明是有效的。不幸的是,对于这些解释方法学习和理解的细粒度漏洞相关代码行等关键特征的深入评估仍然缺乏。在本研究中,我们首先通过两个定量指标(准确度和漏洞代码行覆盖率)衡量,评估了基于图形和序列表示的十种漏洞检测器解释方法的性能。我们的结果表明,仅凭准确度无法充分评估这些方法,因为准确度在不同数据集和检测器之间存在显著波动。随后我们检查了解释方法报告的与漏洞相关的代码行的准确度,并发现所有方法在这个任务中都表现出较差的准确性。这可以归因于解释器在选择重要特征和深度学习检测器学习到的不相关的工件方面的低效性。
Jan, 2024
提出 SEFraud,一种新颖的基于图的自解释欺诈检测框架,通过利用可学习的特征掩码和边缘掩码,从信息丰富的异构类型交易中学习表达能力强的表示,采用新的三元组损失增强掩码学习的性能,演示了的效果。在中国工商银行的生产环境中部署并提供可解释的欺诈检测服务,结果与专业人员的业务理解相一致,确认了它在大规模在线服务中的高效性和适用性。
Jun, 2024
我们提出了一种基于视觉分析的工作流,用于帮助数据科学家和领域专家探索、诊断和理解二元分类器所做决策的过程,这种方法利用 “实例级解释” 来构建一组视觉表示,通过统计聚合数据、解释数据特征和原始数据三种不同的表示形式帮助用户进行研究。我们还通过研究案例验证了该方法的可行性。
May, 2017
探讨了在医疗保健领域中机器学习的应用。通过在 MIMIC-III 临床笔记中预测死亡率的任务中,我们展示了各种可完全解释的方法和模型不可知后续属性的可视化技术,同时提供了评估解释质量的通用方法。
Jul, 2021
传统上,检测欺诈保险索赔依赖于商业规则和专家判断,这使得过程耗时且昂贵。因此,研究人员一直在研究开发高效准确的分析策略来标记可疑索赔。然而,在开发欺诈检测模型时,我们面临几个挑战,如欺诈的罕见性导致高类别不平衡,只有少数索赔得到调查和标记,导致大量未标记数据,以及公开可用数据的缺乏。因此,我们设计了一个模拟机器,用于创建与实际保险欺诈数据集相似的具有网络结构和可用协变量的合成数据。此模拟引擎使研究人员和从业者可以在各种不同的设置中检验多种方法学挑战以及测试他们的保险欺诈检测模型的(开发策略),同时还可以生成大量的合成数据集以评估(高级)机器学习技术的预测性能。
Aug, 2023