符合 GDPR 的机器学习 HCI 优先事项
该研究论文讨论了机器学习治理和预防算法危害的问题,以及如何应用 GDPR 监管。同时,介绍了信息安全领域中的模型逆推和成员推断攻击,并探讨了将某些模型合法归类为个人数据所涉及的不同权利和义务,以及这些措施的效用,并考虑了算法治理和监管的未来方向。
Jul, 2018
本文讨论了欧盟的《通用数据保护条例》对机器学习算法的潜在影响,包括限制基于用户级别预测因素做出决策的自动化决策的使用,, 并创建了 “解释权”,我们认为这为计算机科学家在设计避免歧视、能够解释的算法和评估框架方面提供了机会。
Jun, 2016
人工智能的发展将深刻改变未来。欧盟已经颁布了《人工智能法案》,该法案以透明度、解释能力和人类理解和控制人工智能系统为重点,旨在保护民主和人道主义价值观,并推动人类中心的创新研究议程。人工智能系统评估方法的缺乏可能导致实施混乱,加重困惑。因此,人类与人工智能的相互作用的研究将对法规合规和人工智能进步至关重要,以确保人工智能的发展与人类价值和需求相一致,促进创新、负责任的技术发展,使其成为我们社会不可或缺的一部分。
Feb, 2024
该研究论文旨在分析欧盟数字市场法规中的人工智能应用于数字经济的规则,研究表明在公平性问题上的 DMA 远胜过 AI Act,提供了具体的解决方案。
Dec, 2022
本文探讨了机器学习如何工作以及如何制定公正和负责任的算法,重点考虑了在刑事司法系统中执行决策的案例,并对 HART 作为现实世界分类器的技术特征进行了说明和四个规范基准进行了评估。
Nov, 2018
本文主要探讨在当前和未来的自动机器学习系统中,人与计算机交互如何发生(包括开发、部署和维护阶段的 HCI),不同类型的用户和利益相关方对 HCI 的期望是否存在差异,如何管理 HCI 以使自动机器学习获得人的信任和广泛接受,以及随着自动机器学习系统变得更加自主和学习能力增强,HCI 的基本特性是否会发生变化。研究关键领域包括自动化机器学习,人机交互,用户界面设计,人工智能信任等方面。
May, 2022
在当前人工智能时代,本研究讨论了负责任的机器学习数据集的重要性,并提出了一个评估数据集的负责任框架。通过公平性、隐私保护和合规性等方面的考虑,我们分析了超过 100 个数据集,发现没有一个数据集能免于公平性、隐私保护和合规性问题。我们对数据集的文档化提供了改进建议,并认为在全球范围内的数据保护法规定下,科学界的数据集创建方法需要修订。
Oct, 2023
数据分析和算法决策越来越影响我们生活的各个方面,因此有必要确保它们不成为歧视,不公平,社会正义和不公平源泉的工具。本文提出了一个明确的研究议程,旨在解决这些问题。重点包括:确定模型是否存在偏见,将公平意识纳入机器学习方法中,提高数据驱动和模型驱动决策的透明度和控制以及支持跨学科研究来解决这些问题
Jun, 2017
该研究构建了一个人权、民主和法治保障框架 (HUDERAF),以支持一项基于欧洲理事会人权、民主和法治标准的人工智能法律框架,该框架包括上下文风险分析、透明的风险管理和技术和社会技术安全保障机制,并且可以提高 AI 创新实践的公共问责、透明度和民主治理水平。
Feb, 2022
通过对 5 个经济合作与发展组织国家的 27 名公共部门机器学习从业者进行访谈,本文探讨了在算法决策应用,如税收、司法和儿童保护中如何理解和注入公共价值观。结果显示出在当前可用、透明和 “区分度感知” 的机器学习研究中,缺乏组织和机构现实、限制和需求,存在设计机会,如支持次要数据来源中概念漂移的追踪和构建可用的透明度工具,以识别风险并整合领域知识,旨在支持管理人员和公共服务的 “一线官僚”。我们最后概述了这些高风险应用中的伦理挑战和未来合作方向。
Feb, 2018