使用算法引导人类决策制定者:决策的辅助器还是控制器?
通过对已有的案例进行分析,本文提出了交互式人工智能决策辅助系统的设计,旨在通过学习人类的选择来决定何时提供算法支持,从而提高决策的准确性和可靠性。作者在美国刑事司法系统的前期释放审判方面进行了大规模实验,并发现交互式辅助系统能够在必要的时候提供准确的建议,与固定的非交互式系统相比较,可以显著提高人类的决策水平。同时,交互式辅助系统还具有促进人类学习、保护人类决策者补充优势、促进对建议的更积极响应等优点。
Sep, 2022
主要研究二进制状态的公共预测算法设计和决策委托规则优化,在代理与委托者之间存在信息不对称的情况下,发现委托决策只有在委托者观察到代理者的信息时会做出相同二进制决策时才是最优,提高算法预测的信息量并不一定是最优策略,相关算法限制和人机合作的共同偏好不一致会严重影响决策质量。
Feb, 2024
基于数据驱动算法的人工智能在当今社会中已普遍应用,但在许多情况下,尤其是当风险较高时,人类仍然作出最终决策。本研究引入了一种新的方法框架,可用于在无额外假设的情况下实验性地回答这个问题。我们采用标准分类指标来衡量决策者做出正确决策的能力,通过单盲实验设计随机对案例进行人工智能生成的建议,并由人类作出最终决策,我们比较了三种可选的决策系统的表现:单独人类、人类辅助人工智能和单独人工智能。对我们自己进行的随机对照试验中的数据应用了提出的方法论,发现人工智能建议并没有提高法官决定是否强制缴纳保释金的分类准确性。分析还表明,单独人工智能的决策通常比人类决策(无论是否辅助人工智能)表现更差。最后,相比白人被捕者,在对非白人被捕者的针对性保释方面,人工智能建议往往不必要地更频繁地强制缴纳保释金。
Mar, 2024
本文对高等教育中决策制定算法进行了系统性的综述,发现这些算法趋向于深度学习和对学生的个人数据和受保护属性的使用,但当前算法的发展普遍缺乏以人为中心的理论,参与式或推测性设计,并探讨了这些趋势所带来的挑战,主张采用以人为中心的方法。
Feb, 2023
通过利用潜在结果的框架,我们在不限制诸如建议对决策的影响的条件下,规范了协助人类决策者的推荐算法的设计,并引入了一个单调性假设,该假设导致了对算法的人类响应的直观分类, 我们通过在线实验展示了我们框架的效用,并认为我们的方法可以解释实验中不同推荐算法的相对性能,并可以帮助设计实现人工智能与人类的互补性的解决方案。
May, 2024
本文探讨了机器学习如何工作以及如何制定公正和负责任的算法,重点考虑了在刑事司法系统中执行决策的案例,并对 HART 作为现实世界分类器的技术特征进行了说明和四个规范基准进行了评估。
Nov, 2018
机器学习算法应用于如信贷贷款或刑法司法等关乎人类生活方面的情境,其所基于的数据若含有人类偏见决策,则会产生人类偏见决策,拥有公平观念的机器学习是一种解决方案,但是如何实现公平面临着 “多维面” 等难题,要想在不同领域实现公平、公正,算法必须做到数据和开发者审查的透明化,在此基础上不断进行公平审计。
Jan, 2019
本文描述了机器人决策背后的决策过程,提出了一个基于优化问题的框架来优化自动化任务, 在基于这个框架的基础上提高算法的制定和实践,实现自动化的快速和迅速发展。
Mar, 2019