竞争的人工智能需要计算论证
通过城市公共人工智能系统的竞争性设计,以拍摄感应器所配备的人驾驶汽车为例,运用暂定竞争性人工智能框架,采用假设设计的方法,构建一个设计视频,然后对 17 名在大型欧洲城市所使用的人工智能的公务员进行半结构化采访,我们描述了公共人工智能系统在实施竞争性方面面临的主要挑战。
Feb, 2023
2023 年 10 月,拜登总统发布了一项详细但大部分抱负性内容的行政命令,为人工智能的安全和负责任发展提供了路线图。该研究报告总结了一个研讨会,探讨了在高级自动决策系统背景下,用户、开发人员和机构在促进抗议能力方面所面临的挑战,并提出了具体建议。
Jun, 2024
公共捍卫律师在法庭上审查人工智能系统以争议使用,在此研究中,我们通过研究公共捍卫律师如何审查法院中的人工智能系统来研究实践中争议人工智能系统的努力。我们通过对美国公共辩护社区的 17 名成员的访谈,揭示了他们对计算法医软件(CFS)的感知和经验,CFS 是政府用来定罪和监禁犯罪嫌疑人的自动决策系统,例如面部识别、枪击检测和概率基因分型工具。我们发现,参与者们在评估和质疑 CFS 的可靠性时面临着困难,这是因为他们难以(a)了解 CFS 的开发和使用方式,(b)克服法官和陪审团对 CFS 的不批判性认知,以及(c)获取 CFS 专业知识。最后,我们提供了以技术、社会和制度背景为中心的建议,以更好地支持实践中的争议性介入,如性能评估。
Mar, 2024
该研究提出了一种基于论证对话的人工智能体架构,将人类规则映射到可以解释行为的人工智能文化中,并通过用户研究验证了其有效性,结果表明当系统更加复杂时,解释可以显著提高人类绩效表现。
Nov, 2019
本文综述了利用计算论证方法建立的可解释 AI 方法,重点关注其不同类型的解释,使用的不同模型,不同交互方式和不同的论证框架。此外,我们还规划了未来的发展方向。
May, 2021
本研究针对可解释人工智能(XAI),提出了一种计算论证的交互式解释方法(AXs),以解决模型输出与人类决策之间的不一致性。实验结果表明,AXs 在 XAI 中可以有效地解决不当行为和决策冲突。
Mar, 2023
通过引入辩证推理方法,使用大语言模型(LLMs)构建论证框架,从而使 LLMs 的决策能够被自然地解释和争辩,通过在声称验证的决策任务中的实验,我们证明了辩论性 LLMs 的有效性,结果竞争力强于同类技术。
May, 2024
该论文探讨了人工智能的发展带来的挑战,提出了在系统、架构和安全方面的研究方向,以解决 AI 技术存储和处理数据量的限制,并提高数据隐私保护,以便这一技术能够更好地改善人们的生活和社会。
Dec, 2017