负责人工智能实施:以人类为中心的框架加速创新过程
该论文的工作基于当前人工智能用户信任话语,旨在通过使用信任作为促进当前技术采用(或适用)的工具,提出一种新颖的人机交互方法。作者提出了一个框架(HCTFrame),以指导非专家解锁用户对 AI 设计的信任的全部潜力。经过三个文献综述发现的数据三角化得出的结果揭示了计算机科学和人工智能话语中有关用户信任的一些误解,并进行了三个案例研究评估了心理测量量表的有效性,以映射潜在用户的信任破裂和关注点。该工作主要对抗设计技术中心易受攻击的交互的趋势,这最终可能导致更多现实和感知的信任违规。提出的框架可用于指导系统设计者,如何映射和定义用户信任,以及 AI 系统设计的社会伦理和组织需求和特征。它还可以指导 AI 系统设计者如何开发原型并使解决方案实现用户信任要求。该文章最后提供了一些用户研究工具,可用于测量用户的信任意向和行为,以评估所提出的解决方案。
May, 2023
本文提出了基于人类中心 AI 准则和用户调查的新框架,以帮助收集人类中心的 AI 软件的需求,该框架适用于 360 度视频虚拟现实应用的案例研究。研究结果表明,该方法可以帮助团队全面理解项目需求,并确定在 AI 软件工程过程的初始阶段和后期阶段需要捕获的需求。
Mar, 2023
基于我们之前的工作,本文提出了一个综合的基于人为中心的人工智能(HCAI)框架,包括设计目标、设计原则、实施方法、跨学科团队和 HCAI 流程,同时提出了一个 “三层” 方法以促进框架的实施,我们相信这个系统性和可执行性框架可以克服当前 HCAI 框架中的不足,并应对当前实践中面临的挑战,进一步实现 HCAI 的发展。
Nov, 2023
简要介绍了几个提供负责人工智能应用程序的框架,发现大多数框架仅适用于需求调查阶段,仅有一些私人公司提供了支持工具。结果表明,还缺乏一个全面的框架,该框架包含所有负责人工智能的原则和所有 SDLC 阶段,并可由不同技能集和不同目标的用户浏览。
Jun, 2023
提出以人为中心的人工智能 (HCAI) 方法论框架及其实施的三层方法,从而克服了当前框架中的弱点,并应对实施 HCAI 所面临的挑战,实现 HCAI 的设计、开发和部署。
Nov, 2023
我们的研究旨在推进负责任的人工智能(AI)的概念,这是欧盟政策讨论中日益重要的主题。我们提出了一种全面且目前为止我们所知的第一个负责任 AI 的统一定义。通过结构化文献综述,我们阐明了关于负责任 AI 的当前理解,并基于该分析提出了未来以此概念为中心的框架发展方法。我们的发现支持以人为中心的负责任 AI 方法,其中包括以伦理、模型可解释性以及隐私、安全和信任为支柱的 AI 方法的实施。
Mar, 2024
AI 技术的快速发展与伦理维度的深入研究,特别关注于医疗领域,探索透明度、数据管理、人工监督、教育要求以及国际合作等众多方面,呼吁全球统一的 AI 伦理原则和框架,并提出有益的伦理方案以应对新兴挑战。
Aug, 2023
人工智能的应用不仅依赖基础研究和技术发展,更需要关注其公平性、透明度和隐私问题。为了确保 AI 的合理应用,我们需要制定技术、社会、制度和法律方法和工具,提高所有人的参与度和意识,确保 AI 系统与我们社会的原则和价值观一致。
May, 2022
本文提出了一个人类中心的评估框架,用于检测可靠的和值得信赖的 AI 系统,以及评估 AI 系统表现如何与领域专家进行比较。该框架可以作为一种人类中心的 AI 系统评估方法。
May, 2022
研究旨在提高人工智能系统的可信度和信任度,开发能够适应实际应用场景的人工智能系统,并将人类放在其中心地位,使其能够有效地使用系统,理解输出和解释结果以满足监管委员会的要求。
Jan, 2020