该研究探讨了在艺术创作中将人类专业知识与 AI 模型相结合,以实现更具表现力、细腻和多模态的生成作品的方法,并提出 Human-in-the-Loop 的设计,以增加人类与 AI 之间的互动,从而帮助未来的 AI 系统更好地理解我们自己的创造和情感过程。
Oct, 2021
本文探讨了人工智能系统的潜在风险和利益,指出达成社会契约需要确定 AI 的目的和风险水平并采用安全、负责任和有益的方法。
Jun, 2020
人工智能创新主要关注 “what” 和 “how” 问题,忽视可能的危害与社会背景,导致了潜在的社会技术问题,因此我们需要计算机科学和社会学科之间更紧密的联系。
Dec, 2020
本文提出了一种 “公众参与” 方法框架,旨在更好地参与算法决策,共同决策,并构建群众。结合通讯文献的见解,探讨其在涉及公共政策领域的 AI 设计中的特点对参与者的重要性,如再犯率预测,为支持此工作的人机交互社区描绘了一部分研究议程。
Apr, 2022
通过重温 Nissenbaum 文章中关于计算机化对责任追究带来的挑战,结合最新的关于关系型责任追究框架的研究,探讨了数据驱动算法系统所面临的困难,并讨论了削弱这些困难的方法。
Feb, 2022
通过社会理论中有关种族的连接,本文提出了一种名为包容人像(Inclusive Portraits)的新方法,改善了人工参与(HITL)系统在面部验证中的性能,并突出了在设计 HITL 系统时考虑个体工作者特点的重要性,而不是将工作者视为同质群体。此研究对于开发更具包容性和公平性的 AI 增强服务具有重大的设计意义。
Nov, 2023
AI 系统的实施需要遵守 SLEEC 规则,该研究通过语言分析和逻辑编程框架的应用提供了一个可行的策略。
Dec, 2023
介绍利用自然语言和可编程代码同时表达政策的全球数字政府倡议,以及用 AI,自然语言处理和知识图谱缩短从政策文档到可执行决策模型的路线的方法。使用 AI 可帮助政府机构和政策专家扩大人可读和机器可执行政策规则的生产,同时提高透明度,可解释性,追溯性和决策的问责性。
Nov, 2022
讨论了人工智能伦理学的研究方向,提出了确保人工智能系统行为符合道德和社会价值的替代方法,并介绍了设计和利益相关者价值观提取方法。
Jun, 2017
本研究论文旨在借助复杂系统、网络科学和人工智能的交叉领域构建社交人工智能的基础,并探讨了社交人工智能领域中的主要问题、可能出现的技术和科学挑战,以及未来的研究方向。
Jun, 2023