通过概率生成人工智能模型和协作博弈理论,我们提出了一个补偿版权所有者的框架,以解决生成人工智能的版权挑战,并确保公平分配收益。
Jun, 2024
本研究提出一种考虑数据公正价值的方法,通过估算数据 Shapley 值来解决在监督学习中评估数据价值的困难,并且发现该方法优于其他流行的评估方法,可以有效提高预测器的性能。
Apr, 2019
提出一个新的统计框架 —— 分布 Shapley,其定义了基于潜在数据分布的点的价值,解决了数据 Shapley 框架的限制,并使用该框架开发了一个新的算法,运行速度比计算(非分布式)数据 Shapley 值的最先进算法快两个数量级,对各种数据集进行了应用并证明了它在数据市场环境中的实用性。
Feb, 2020
本研究提出了一个新的机器学习模型解释框架 FAE(Formulate,Approximate,Explain)。该框架利用了 Shapley 值和博弈论方法进行解释,并提供了置信区间和对比解释来解释黑盒子模型在不同数据集上的结构。
Sep, 2019
本文提出了一种使用神经网络模型来学习协作博弈解决方案,以促进公平合作分配的方法,特别是 Shapley value 在 Explainable AI 中的应用。
Aug, 2022
通过利用机器学习问题的结构性质,我们提出了一种更高效的近似数据 Shapley 值的方法,此方法在不同学习设置中包括随机梯度下降和凸、非凸损失函数中证明了其近似 Shapley 值的准确性收敛性。实验证明,这种方法在保持数据的近似价值和排名的同时,提高了近似速度最高可达 9.9 倍,并且在使用小的子集进行精确评估时,对预训练网络的效率更高。
Nov, 2023
我们提出了一个框架,通过依靠现代生成型人工智能模型的概率性质和经济学中的合作博弈理论技术,按比例向版权所有者补偿其对人工智能生成内容的贡献,实现对生成型人工智能版权的解决。实验证明,我们的框架成功地识别了艺术品生成中使用的最相关的数据源,确保在版权所有者之间公平而可解释的收益分配。
Apr, 2024
该研究提出一种计算在聚合的数据矩阵中删除片段的对立假设的方法,并进一步提出了二维 Shapley,这是一种理论框架,旨在评估碎片化的数据源,其在碎片化数据上满足某些有吸引力的公理。 2D-Shapley 赋予了一系列新的用例,例如选择有用的数据片段,提供逐个样本的数据值的解释以及精细的数据问题诊断。
Jun, 2023
通过介绍 Asymmetric Shapley values (ASVs) 这种较少限制的框架,本文提出了这种框架可以改善模型解释、为模型预测中的不公平歧视提供测试、在时序模型中支持逐步增量解释以及支持特征选择研究而无需进行模型重新训练。
Oct, 2019
本文提出了一种新颖且可解释的预处理方法 FairShap,用于通过数据估值实现公平的算法决策。FairShap 基于 Shapley Value 框架,并通过测量每个训练数据点对预定义公平度量的贡献来实现可解释性。我们在多个不同性质、不同训练场景和模型的最新数据集上进行了实证验证,该方法在表现上优于其他方法,并产生了具有类似精度水平的显着更公平的模型。此外,我们通过直方图和潜在空间可视化说明了 FairShap 的可解释性,我们相信这项工作代表了算法公平性可解释、深度学习可解释性等面向的有前途的方向。
Mar, 2023