公正贷款需要解释模型进行负责任的推荐
本文通过对金融领域中深度学习模型可解释性方法的比较研究,对人工智能和深度学习模型的成功及其在各个行业中的广泛应用进行了讨论,并对可解释性人工智能方法的分类、关注点和挑战进行了综述,并提出了未来方向。
Sep, 2023
通过解释的方式,我们提出了基于过程的公正度并识别了过程相关偏见,并通过优化目标设计了一种综合公正度算法,以在提高传统公正度、满足解释公正度和维护实用性能之间达到多重目标的平衡。
Dec, 2022
本研究通过使用 Shapley 加性解释和文本聚类与决策树分类器的混合方法,提供了一个对基于深度神经网络的分类模型的解释以验证其可解释性,并对其提供对抗攻击的测试。
Jun, 2022
本研究探讨了 12 种顶级的偏差缓解方法,讨论其性能,基于 5 种不同的公平度量标准、实现的准确性和金融机构的潜在利润。我们的研究结果表明,在保留准确性和利润的前提下实现公平存在困难,同时突出了一些最佳和最差的表现,并有助于实验机器学习和其工业应用之间的联系。
Sep, 2022
本文提出了一种支持决策者做出公正的借贷决策的框架,其中包含可解释的机器学习模型、可交互的可视化工具以及三种类型的解释。该框架通过提供全局与个性化的解释获得了 FICO 的认可奖。
Jun, 2021
在人工智能逐渐融入决策过程的时代,本研究论文综合探讨了偏见和公平性问题,特别着重研究它们在银行业中的影响,其中由人工智能驱动的决策具有重大的社会影响。在这个背景下,公平性、可解释性和人类监督的无缝融合至关重要,最终形成了常常称为 “负责任人工智能” 的概念。这强调了在开发企业文化时解决偏见的关键性,以便与人工智能法规和普世人权标准相一致,特别是在自动决策系统领域。现今,将伦理原则纳入到人工智能模型的开发、训练和部署中对于遵守即将出台的欧洲法规和促进社会公益至关重要。本论文以了解偏见、减少偏见和考虑偏见三个基本支柱为结构,验证了这些贡献在与 Intesa Sanpaolo 的实际应用场景中的实用性。这项合作努力不仅加深了我们对公平性的认识,还提供了实际工具来负责任地实施基于人工智能的决策系统。遵循开源原则,我们已发布了 Bias On Demand 和 FairView 作为易于使用的 Python 包,进一步推动了 AI 公平领域的进展。
Jan, 2024
本研究探讨公平机器学习在征信评分中的应用,介绍了统计公平性准则、机器学习模型中公平性目标的算法选择,使用实际数据实证比较了不同的公平性处理器,发现多种公平性准则可以同时得到满足,提出分离度作为评估公平性的准则,证明了公平性处理器能在利润与公平性中找到一个良好的折中点,可以以较低的成本将算法歧视降低到合理的水平。
Mar, 2021
本文回顾了最近关于可解释 AI(XAI)的技术文献,并认为基于我们当前对该领域的理解,实践中使用 XAI 技术需要考虑特定业务应用程序的利益相关者的具体需求。
Aug, 2021