- 在梯度提升树中实现本地可解释性:特征贡献
GBDT 模型是一种基于树集合的强大的加性模型,本文开发了一种特征贡献方法,通过利用 GBDT 架构来计算每个特征的贡献,从而提供了一种对 GBDT 算法进行局部可解释性的模型。该方法在理论证明和多个实验中得到了验证,并且既能反映 GBDT - 联邦在线学习排序中如何遗忘客户?
本文研究了如何有效和高效地移除参与联邦在线学习排序系统的客户端的贡献,同时不损害整体排序模型的有效性,而无需重新训练全局排序模型。关键挑战在于如何衡量模型是否已经从请求删除的客户端 $c^*$ 处学到了贡献,我们通过在四个数据集上的实验证明 - 关于 GDPR AI 启用的数据保护机构完整性检查的多解决方案研究
在本论文中,我们提出了一种自动化策略,用于对一般数据保护条例(GDPR)下的数据处理协议(DPAs)进行完整性检查。我们使用了以预训练的 BERT 和 RoBERTa 语言模型为基础的十种替代解决方案,并通过对 30 个真实 DPAs 进行 - 大语言模型时代中的被遗忘权:影响、挑战和解决方案
利用大型语言模型开发的软件系统在实施《被遗忘权》方面面临新的挑战,本文探讨了这些挑战并提供了关于如何采取技术解决方案来实现《被遗忘权》的见解,包括机器遗忘、模型编辑和提示工程。
- 通过正则化解开私有类
本篇论文提出 DisP 方法,用于深度学习模型中隐私信息保护,通过去相关策略对同一个类别的特征解耦以保护隐私,实验证明其有效性。
- MM高效地在购物篮子和商品的添加和删除下维护下一个推荐篮子
该研究探讨了在欧洲实施的 “一般数据保护条例” 下,个人数据的删除不仅适用于主数据存储中的数据还适用于包含个人数据的机器学习模型,并设计了有效的算法,用于在下一个购物篮推荐任务中增量和递减地更新此类模型。
- 企业级机器去学习中的数据删除
介绍了一种深度神经网络模型生命周期维护过程,使用成员推理攻击作为合规工具来减少重新训练模型的必要性并实现使用数据清除请求。
- 遗忘机器学习
该研究论文详细介绍了新颁布的 GDPR 法对机器学习模型隐私保护的重要性,针对深度神经网络模型容易遭受信息泄漏攻击的问题提出了 Unlearning 和 Amnesiac Unlearning 两种数据删除方法,实验证明这两种方法可行、安全 - Android mHealth 应用中 GDPR 合规违规的实证评估
本文提出了一个名为 MyTool 的自动化系统,用于检测 GDPR 规定是否得到遵守。作者检查了 796 个移动健康应用程序,发现其中 189 个应用程序没有提供完整的隐私协议;另外,59 个应用程序通过不同的措施收集敏感数据,但其中 46 - MM(不)知情同意:在现场研究 GDPR 同意通知
探讨了在德国网站中的 80,000 名用户上,图形用户界面的提示位置、选择类型和内容框架对用户同意行为的影响,并发现许多实现细节都会显著影响用户交互。
- MM回答应答集规划中的 “为什么” - 解释方法综述
该论文为对 ASP 的解释性研究做出了概述。主要关注 ASP 的不同解释方式及其异同,并探讨其在未来的成功应用中的重要性。
- 记忆算法:模型反演攻击与数据保护法
该研究论文讨论了机器学习治理和预防算法危害的问题,以及如何应用 GDPR 监管。同时,介绍了信息安全领域中的模型逆推和成员推断攻击,并探讨了将某些模型合法归类为个人数据所涉及的不同权利和义务,以及这些措施的效用,并考虑了算法治理和监管的未来 - ICML欧盟算法决策与 “解释权” 法规
本文讨论了欧盟的《通用数据保护条例》对机器学习算法的潜在影响,包括限制基于用户级别预测因素做出决策的自动化决策的使用,, 并创建了 “解释权”,我们认为这为计算机科学家在设计避免歧视、能够解释的算法和评估框架方面提供了机会。