- ACL反事实编辑器的反事实分析:一种基于回译的方法
通过提出一个新的反向翻译的评估方法,我们针对自然语言处理模型和任务的解释方法的一致性问题进行了调查和分析,并提出了一种新的测量指标来评估不同特征的反事实生成方法的一致性。
- 实现负责任 AI:伦理方面的紧张和权衡
本文讨论了负责任的人工智能伦理原则的多个方面,并提出了 10 个值得关注的潜在矛盾、权衡和其他交互作用。通过综述文献资料,重点分析了双向交互作用,并提供了一份有助于设计人员和开发人员了解伦理原则各方面相互关系的指南。
- 面向 ChatGPT 时代的负责任 AI:基于基础模型的 AI 系统设计参考架构
提出一个基于 “模式导向”“责任 AI 设计” 的参考架构,从 “基础模型作为连接器” 到 “基础模型作为单片式架构”,演进人工智能系统的架构,以提供可重复使用的解决方案,以应对新的架构演变和负责任的 AI 挑战。
- 为负责任人工智能量身定制的需求工程
本文阐述了需求工程(Requirements Engineering,简称 RE)在设计和实现负责任人工智能系统方面的重要性,并指出了研究与实践面临的相关挑战。
- 金融服务的负责任聊天机器人开发:一种面向模式的负责任人工智能工程方法
本文提出通过模式驱动的负责任的 AI 工程方法和构建一种能从系统角度实现负责任 AI 的垫片目录来填补负责任 AI 的操作化的空白,研究了 chatbot 开发过程中的风险,并提供了垫片驱动的缓解措施。
- 在美国推进负责任人工智能的政策优先级
针对如何推动人工智能的负责任发展,本文提出了 9 个政策建议,并根据各机构类型,对这些政策进行了评估和排序。其中预部署审计与评估、后期责任追究等政策对推动负责任 AI 的发展具有最高的影响但也最难采纳。作者建议美国政府机构和企业高度优先发展 - 公平合成数据生成
本研究提出一种通过预处理算法识别和删除偏差样本以生成更公平的合成数据的管道,可以有效地克服许多挑战,并在某些情况下提高性能。
- 负责任人工智能模式目录:多义性文献综述
本文提供了一种基于多声学文献综述 (Multivocal Literature Review,MLR) 结果的负责任 AI 模式目录,该目录系统地提供了适用于 AI 系统利益相关者的模式,以确保开发的 AI 系统在整个治理和工程生命周期内负 - 机器学习从业者数据文档化的认知、需求、挑战与需求
通过对 14 位机器学习从业者的半结构化访谈,发现目前数据文档化方法在性质上往往是临时性和目光短浅的,因此需要一种适应他们的上下文、与他们现有的工具和工作流程相结合、并在可能的情况下自动完成的数据文档化框架的设计要求,以解决现有文档化方法无 - 面向金融交易的负责任人工智能
本研究通过使用 Shapley 加性解释和文本聚类与决策树分类器的混合方法,提供了一个对基于深度神经网络的分类模型的解释以验证其可解释性,并对其提供对抗攻击的测试。
- 负责任的人工智能 -- 从原则到实践
人工智能的应用不仅依赖基础研究和技术发展,更需要关注其公平性、透明度和隐私问题。为了确保 AI 的合理应用,我们需要制定技术、社会、制度和法律方法和工具,提高所有人的参与度和意识,确保 AI 系统与我们社会的原则和价值观一致。
- ICLR设计和评估以人为中心的交互式机器学习简要指南
该研究论文提出了一种面向人类的指南,旨在帮助机器学习从业者在开发和部署交互式机器学习系统时,解决人机协作、模型评估、公平透明等责任问题,以促进人类技能和能力的增强
- 五个 P:利用区域实现负责任的人工智能
本文提出一个包含五个关键元素的概念框架(五个关键 P),以便识别符合 “负责任人工智能” 标准的干预措施,并提供跨学科视角的问答脚手架以改善这些措施的效果。我们认为,现有的许多低级别干预措施 (如调整算法和更新参数) 无法实现有意义的变革, - 面向负责任人工智能的软件工程路线图
本文旨在为负责 AI 的软件工程开发一份路线图,其关注点为多级治理、嵌入过程性实践的开发流程和通过体系结构风格、模式和技术构建设计负责 AI 系统
- 负责任 AI 设计:设计负责任 AI 系统的模式集合
通过系统文献综述,我们发现了一个缺失的元素 - 系统级指导。为了促进设计负责任的人工智能系统,本文提出了设计模式的总结。
- 医疗保健中的负责任人工智能
本文旨在探讨在医疗保健领域中负责任的 AI 所面临的问题、实施的解决方案以及未来的研究方向。我们针对两个实验室的工作阐述了与不确定性的医疗数据和机器建议有关的两个主题以及在线健康信息混乱问题。
- 四分之四原则不构成不平等影响:算法公正中认知侵权令人悲哀的故事
研究了在创造通用性抽象时,过度抽象导致错误的知识领域扩展和伦理风险,并探讨了负责任的 AI 领域如何将 4/5 规则抽象为不适当的不同待遇指标,引入了新的道德含义和潜在的伦理危害,并检视了该领域如何通过将 4/5 规则编码到流行的 AI 公 - MM使得负责任的 AI 成为常态而不是例外
本文提供了针对 National Security Commission on Artificial Intelligence (NSCAI) 关于负责任开发和部署人工智能的主要考虑因素的建议,重点在于要将 “负责任 AI” 作为常规而不是