- EquiPrompt: 在思维链中通过迭代引导改进传播模型的偏差
采用 CoT 推理的 EquiPrompt 是一种新颖的方法,用于减少文本到图像生成模型中的偏见,并通过迭代推理改进和受控评估技术解决敏感环境中的零样本 CoT 问题,实验表明 EquiPrompt 有效降低偏见同时保持生成质量,推动道德人 - 负责任的人工智能:智能文献计量学中的画像
通过分析可解释的人工智能、可信的人工智能和道德人工智能等三个主要概念,本研究定义了负责任的人工智能并确定了其核心原则。方法论上,成功地将人工智能的能力应用于文献计量学,以加强知识发现,并通过领域见解对实验模型进行交叉验证。在实证方面,本研究 - 数据擦除的前沿:大型语言模型的机器取消学习
大型语言模型开创了人工智能的进展,然而它们可能会危险地记忆和传播敏感、偏见或受版权保护的信息。机器遗忘作为一种尖端解决方案应运而生,针对大型语言模型提供了一种选择性丢弃某些数据的技术,以解决隐私、道德和法律方面的挑战,无需进行完整的模型重新 - 负责任的人工智能研究也需要影响声明
研究,发展,政策工作,负责任的人工智能,道德人工智能
- 面向医疗人工智能的统一功利伦理框架
通过分析次级调查数据,我们确定了人工智能在医疗领域中的伦理原则,并提出了一个基于功利主义伦理的新的理论框架来设计医疗领域的伦理人工智能。
- 论道德人工智能中不确定性的含义:哲学与实践
解决数据科学家、统计学家和建模者在开发人工智能系统时应该负什么样的责任以及如何进行问责的争议性话题,通过减少不透明性并提高决策过程的透明度和追溯性,强调了统计学基础对人工智能系统的发展的重要性,以及如何解读和应对系统结果,从而增强模型对反馈 - 伦理人工智能的人类价值计算框架
通过社会科学根植的正式概念框架,系统、集成和跨学科地探究人类价值如何支持设计道德人工智能,从而解决价值对齐问题和其他相关的挑战,如人工智能学习人类价值观、将个人价值观聚合到群体中和设计计算机机制来处理价值观。
- 多智能体系统中的人类价值观
本文提供一个源于社会科学、能够形式化表达价值的形式化表述,并使用此表述明确了实现 AI 价值对齐的关键挑战和研究路线图。
- 我的脸我的选择:用于社交媒体匿名化的增强隐私深度伪造技术
该研究介绍了三种人脸访问模型,使用深假面替换未经批准的面孔,并提出了适用于此任务的新度量标准,通过在真实数据集和两个合成数据集上测试,证明了该系统的有效性,并对相似性度量、深假面生成器和数据集进行了广泛分析。
- 机器学习系统的风险
提出了一个上下文敏感的机器学习系统风险框架(MLSR),该框架用于识别机器学习系统的一阶和二阶风险,包括应用、设计、控制等,并将伦理 / 人权风险与系统风险结合起来,为机器学习系统进行全面的风险评估铺平了道路。
- 基于原则的 AI 和自主系统伦理保证论证
该研究论文提出了一种基于四个核心道德原则的框架 - 一个伦理保证论证模式 - 来结构化系统化地推理出在特定情境下使用给定的人工智能 / 自主系统的道德可接受性,以此来扩展和应用保证论证方法,从而获得使用 AI 和自主系统时的可接受道德保证。
- 迈向负责任的人工智能开发生命周期:来自信息安全的启示
提出了一个框架,将信息安全领域和安全开发生命周期的概念应用到人工智能系统的开发中,以解决公正度、可解释性和科技伦理等方面的问题。
- KDD超越公平度量:实践中的道路障碍和伦理人工智能挑战
讨论建立和推广符合伦理 AI 的实践中存在的实际挑战,包括监管压力、冲突商业目标、数据质量、开发过程、系统集成实践和规模问题,认为要考虑 AI 系统的全面运营上下文,才能有效应对这些伦理风险。
- CVPR重新审视计算机视觉中的 CO2 排放
这份论文分析了二氧化碳排放的成本,认为计算机视觉领域对气候危机的不良影响需要引起重视,并提出应该将执行加入道德人工智能的支柱,为架构设计师和更广泛的计算机视觉社区提供减缓气候危机的建议。
- 人工智能:全球道德准则的地理分布
研究表明,围绕着五个伦理原则(透明度、正义与公平、非恶意行为、责任和隐私),出现了全球一致性的道德人工智能共识,提出了相关的指导原则和技术标准,同时应该充分融合伦理分析和实施策略的努力。