- 删除我的账户:数据删除对机器学习分类器的影响
研究论文通过不同实验和假设,深入分析了使用《一般数据保护条例》中的《被遗忘权》对机器学习模型在分类任务中的性能影响,并揭示了数据删除的数量、数据集特征和删除偏差以及用户行为假设对机器学习数据质量造成的影响。
- GDPR 有效性研究的实证证据映射:一项系统综述
通过综述和综合近 30 年(1995 年 - 2022 年 3 月)的经验研究,倡导将经验证据更加全面地融入到对 GDPR 的评估和审查中,同时为未来的经验研究奠定了方法论基础。
- 聊天机器人是否准备好应对隐私敏感的应用?输入翻转和提示清除的调查
本文旨在探究聊天机器人的输入复制和反刍能力,并通过直接指示来遵守 HIPAA 和 GDPR 等规定,限制复制,以减少隐私风险。通过概括 100 名应聘者的求职信,我们发现 ChatGPT 在 57.4%的情况下会保留 PII,并发现在不同的 - MMk - 匿名和合成数据技术对能量成本和机器学习准确性的影响
本文研究了 k - 匿名、合成数据等隐私增强技术对机器学习模型能耗和准确性的影响,结果表明应用 k - 匿名到数据集可以降低能耗并保持准确度,而使用合成数据则可以保持能耗不变,但准确性可能会有所下降。
- 沙特隐私政策数据集
本研究收集并创建了一份包括来自沙特阿拉伯不同行业的个人数据保护政策的汇编,这些政策经过了根据《个人数据保护法》的 10 项原则进行的注释。最终数据集可以用于评估隐私政策合规性、制定自动化工具以监测数据保护法规遵从性的数据分析。
- AI Act 提案:技术可解释性的新权利?
研究欧盟法律框架中技术可解释性权利的存在,特别关注 AI 法案及 GDPR 等新条款是否已经足够,以及是否还需要加入相关权利。
- SIGIR将数据最小化的法律原则实现个性化
本文探讨在个性化信息获取系统中 GDPR 中 `data minimization' 的执行,通过实证研究找到了不同执行方式的可行性,对不同用户产生的影响和表现结果进行分析,揭示了在此背景下数据最小化问题的复杂性和尚存的计算和监管挑战。
- 好的反事实和它们的来源:基于案例技术生成可解释人工智能的反事实
本文研究使用反事实解释作为可解释的人工智能 (XAI) 问题的一种解决方案,并提出一种基于案例的方法来生成反事实,以提高其解释能力和覆盖范围。
- 跟踪器之争:在线跟踪生态系统的演变测量
本文分析了过去两年内顶级网站内嵌的第三方网络生态,通过六个时间间隔观察了在线追踪活动和进出流量的变化,并对追踪器之间的连接和可能的 Cookie 同步活动进行了研究,以评估 GDPR 实施后 Web 生态系统的隐私健康状况
- IJCAI使用 SHAP 生成对照与反事实解释
本文提出了一种利用 SHAP 理论生成模型互解释性的模型无关方法,能够生成可用于人类理解的对比和反事实解释,并在 IRIS、葡萄酒质量和移动特性数据集上进行测试和分析。
- MM符合 GDPR 的机器学习 HCI 优先事项
本文提出人机交互在法律上对算法系统的公平性、偏见与歧视、数据保护、透明度、自动偏见的减轻和理解以及处理后果的沟通等方面的作用。
- 不打开黑匣子的反事实解释:自动化决策与 GDPR
探讨欧盟通用数据保护条例中关于解释权的存在、优点和缺点。 提出使用无条件的反事实解释来支持三个目标:帮助个人了解为何做出特定决策,提供理由以反对决策,以及了解为了将来获得期望的结果需要做出的改变。