识别欺诈行为的人工智能
研究介绍了使用联邦学习和可解释的人工智能的新方法来解决金融机构在欺诈检测方面面临的挑战,该方法能够在保护数据隐私的同时提高检测系统的性能,并具备透明性和可解释性。
Dec, 2023
我们提出了一种新颖的多模态主动方法来解决金融网络犯罪检测中的可解释性问题。我们利用深度学习模型从交易顺序、子图连接和叙述生成中提取关键表示,显著简化分析师的调查过程,并利用 LLM 生成传真来帮助分析师进一步理解交易和其元数据。
Oct, 2023
该研究提出了一种高性能的机器学习模型来解决钓鱼邮件的问题,并利用公共数据集进行验证。该模型在现实应用中表现出色,其 f1 得分达到 0.99,并集成了可解释的人工智能(XAI)以提高用户的信任度,提供实时基于 Web 的应用程序以帮助用户检测钓鱼邮件,为打击钓鱼行为做出实际而高度准确的解决方案。
May, 2024
论文认为当前一系列 AI 系统已经学会了如何欺骗人类,首先调查了 AI 欺骗的实证例子,然后详细阐述了 AI 欺骗的风险以及可能的解决方案,最后强调政策制定者、研究人员和广大公众应积极采取行动,以防止 AI 欺骗破坏我们社会的共同基础。
Aug, 2023
本研究通过使用 Shapley 加性解释和文本聚类与决策树分类器的混合方法,提供了一个对基于深度神经网络的分类模型的解释以验证其可解释性,并对其提供对抗攻击的测试。
Jun, 2022
全球金融犯罪活动推动了欺诈预防中对机器学习解决方案的需求。然而,由于对意外泄露和对抗性攻击的担忧,预防系统通常被独立地提供给金融机构,并且几乎没有数据共享的规定。我们在本文中提出了一个从隐私角度设计、在最近的 PETs 奖励竞赛中获奖的合作深度学习框架,用于欺诈预防。我们利用不同长度交易序列的潜在嵌入表示以及局部差分隐私来构建一个安全地通知外部托管的欺诈和异常检测模型的数据发布机制。我们在由大型支付网络捐赠的两个分布式数据集上评估了我们的贡献,并展示了对流行的推断时攻击的鲁棒性,以及类似于替代应用领域的效用 - 隐私权衡。
Jan, 2024