Farsight:AI 应用原型期间培养负责任的 AI 认知
以非专家的公众参与为基础,通过收集使用案例、评估风险、揭示 AI 发展的张力等方式,引入了 Particip-AI 框架以实现对 AI 的民主治理和风险评估,研究发现参与者的回应强调了个人生活和社会应用,显示了多样化的危害与专家评估的互补价值,还发现不发展使用案例的感知影响了参与者是否认为 AI 使用案例应该开发,并凸显了普通用户对技术解决主义的担忧。
Mar, 2024
介绍了计算系统杂交网络可能造成的几种潜在的伤害形式,探讨了这些潜在的伤害对不同利益相关方的影响,并提出了有效的伤害预防框架应该考虑包括计算系统特征、利益相关方和潜在伤害的广泛范围等在内的因素。
Nov, 2020
本研究提供了一种设计空间方法,通过人机交互设计支持数据科学家和领域专家对 AI 公平性进行调查,我们使用贷款申请作为实例,通过一系列研讨会,我们将贷款专员和数据科学家的需求实现到了 FairHIL 用户接口中。该研究通过 think-aloud 用户研究验证了 FairHIL 的可靠性,并为调查 AI 模型公平性提供更好的设计。
Jun, 2022
人工智能在法律实践中的应用产生了假象问题,本文通过评估 AI 驱动的法律研究工具,发现这些工具存在假象问题,并提出了区分假象和准确法律回答的方法,为法律专业人士监督和验证人工智能输出提供了证据。
May, 2024
通过比较 PromptInfuser 和设计师当前的 AI 原型化工作流程,我们研究了联结提示和 UI 设计如何影响设计师的工作流程,发现 PromptInfuser 比当前工作流程更有用,更能产生逼真的原型,更高效,更有帮助于预测 UI 问题和技术限制,从而为设计 AI 应用的原型系统提供了参考。
Oct, 2023
我们探索了一种人机交互界面的设计,使得普通用户可以识别潜在的公平问题并在贷款决策的背景下解决它们,为评判和解决人工智能的公平性做出贡献。
Apr, 2022
使用人工智能(AI)指导患者护理或操作过程的影响是 AI 模型输出、基于该输出的决策制定协议以及参与方采取必要后续行动的相互作用。斯坦福医疗保健的数据科学团队开发了一种 “公平、有用和可靠 AI 模型(FURM)” 的机制,通过进行伦理审查来识别潜在的价值不匹配,通过模拟估计有用性,通过财务预测评估可持续性,以及通过分析来确定 IT 的可行性,设计部署策略,并推荐前瞻性的监测和评估计划,从而实现在部署之前估计其影响效果,以及在实时研究其影响效果。我们报道了对六个 AI 模型指导解决方案进行的 FURM 评估,以评估其潜在采用性的过程,涵盖临床和操作设置,每年可能影响数十个到数万个患者。我们描述了评估过程,总结了这六个评估,并分享了我们的框架,以使他人能够进行类似的评估。在我们评估的六个方案中,有两个已进入规划和实施阶段。我们的创新贡献,包括模拟估计的有用性、量化可持续性的财务预测以及进行伦理评估的过程,以及底层方法和开源工具,可供其他医疗保健系统进行可行的候选 AI 解决方案评估。
Feb, 2024
AI 伦理教育的主要目标之一是提高人们对人工智能危害的认识,而本研究评估了 AI Incident Database (AIID) 作为提高社会高风险领域中人工智能危害的认知度的教育工具的有效性,发现使用该数据库可以帮助学生更好地理解人工智能危害的严重性和紧迫性,并提出了改进教育工具的建议。
Oct, 2023