利用零知识证明技术(Zero-Knowledge Proofs,ZKPs)解决机器学习模型的性能公平性和准确性问题,同时保护模型隐私,从而提高人工智能的公平性和透明度。引入了 snarkGPT,一个实际的 ZKML 实现,用于验证生成内容的准确性和质量,同时保护模型的隐私。通过研究 snarkGPT 的可扩展性和性能,评估了采用基于 ZKML 的方法来捕捉生成 AI 模型中的质量和性能公平性问题的可行性和挑战。
Feb, 2024
本文介绍了一个基于交互和隐私保护测试的框架,该框架允许对任何经过训练的模型进行公平程度的认证,无论其训练过程和架构如何,并且提供了一种加密技术来自动进行公平测试和认证推理,同时隐藏参与者的敏感数据。
Sep, 2020
该文提出了一种用于分类表格数据的前馈神经网络的因果公平性认证方法,能够准确判定机器学习模型是否有偏差,并在可扩展的精度方面提供了不同的选择。
Dec, 2019
通过使用一种安全、可验证且保护隐私的协议,Fairness as a Service (FaaS) 提供了一种计算和验证任何机器学习模型公平性的方法,并通过加密保护数据和结果的隐私,同时零知识证明和多种公平性指标的支持使其能够作为一种服务来审计任何机器学习模型的公平性。
Sep, 2023
本文介绍了一种基于自适应浓度不等式的可扩展算法,用于验证机器学习系统在进行社会决策时是否会对少数族裔造成不公平待遇,并在一个名为 VeriFair 的工具中实现了这个算法,并证明该算法能够扩展到大的机器学习模型,包括一个比先前已验证过的神经网络大五个数量级的深度循环神经网络,虽然该技术只提供概率保证,但可以选择非常小的误差概率。
Dec, 2018
本文提出了 Fairify 方法,使用 SMT 来验证神经网络中的个体公平性,通过输入分割和剪枝以证明或反驳公平性认证,并在 25 个实际神经网络上进行了评估。
Dec, 2022
通过使用 zkSNARKs 进行模型推理,本研究提出了一种可验证的模型评估方法,生成针对数据集的计算证明,以证明固定私有权重的模型在公开输入上实现了所述性能或公平度量指标,展示了针对真实世界模型的可验证评估的关键挑战和设计解决方案,从而提供了一种新的透明度范 paradigm。
本研究提出了一种名为 ZkAudit 的协议,旨在解决商业激励与算法透明的冲突,允许模型提供者保护模型权重和数据的机密性,同时允许其他方信任地审计模型和数据的属性。通过使用零知识证明,我们证明了可以提供对深度神经网络的可信审计,包括版权审计、审查审计和反事实审计,而几乎不会降低准确性。
Apr, 2024
机器学习算法已被广泛应用在各种领域,然而由此带来的公平性问题在高风险案例(如人脸识别和医学影像分析)中引起了极大关注。本文针对深度神经网络中公平性的限制条件及其行为矫正方法的有效性进行了研究,实验结果表明,在特定公平度量下,大型模型会对公平的过度拟合而产生一系列意外和不良后果。
Feb, 2021
本文介绍了一种基于统计推断的系统的运行时监测技术,该系统具有未知的结构但是被假定为具有马尔可夫链结构。我们引入了一种规范语言,可以模拟许多常见的算法公平性属性,例如人口平均,平等机会和社会负担。使用原型实现,我们展示了如何监测银行在不同社会背景的申请人给予贷款以及学院在保持合理的社会负担的情况下公平地录取学生。
May, 2023