- 2024 年人工智能指数报告
2024 年度 AI 指数报告是目前为止最全面的,包含技术进步、公众认知、地缘政治动态、负责任的人工智能等重要趋势,并引入了关于 AI 对科学和医药的影响的全新章节。
- 负责任的人工智能:智能文献计量学中的画像
通过分析可解释的人工智能、可信的人工智能和道德人工智能等三个主要概念,本研究定义了负责任的人工智能并确定了其核心原则。方法论上,成功地将人工智能的能力应用于文献计量学,以加强知识发现,并通过领域见解对实验模型进行交叉验证。在实证方面,本研究 - 教育中主动负责的人工智能宣言
人工智能在教育中的历史基础、当前实践和新兴挑战,以及在更广泛的人工智能实践中的独特潜力和对当前人工智能政策和实践的贡献问题,分析了 AIED 领域的关键空白,提出了一个以推动教育和广泛人工智能社区为目标的五点纲领,建议加强跨学科合作、拓宽对 - 现在,请写一篇关于此的文章:Crescendo 多轮 LLM 越狱攻击
通过一种名为 Crescendo 的新型逃狱攻击,本研究证明了该攻击在各种公开系统中的成功效果,并引入了 Crescendomation 工具,展示了其对最先进模型的有效性。
- 银行业的负责 AI:解决偏见,实现公平决策
在人工智能逐渐融入决策过程的时代,本研究论文综合探讨了偏见和公平性问题,特别着重研究它们在银行业中的影响,其中由人工智能驱动的决策具有重大的社会影响。在这个背景下,公平性、可解释性和人类监督的无缝融合至关重要,最终形成了常常称为 “负责任人 - 通过文化共识理论探索公众对负责任人工智能的舆论
人工智能发展和治理过程中,公众参与以捕捉多元视角和促进公平实践与结果的有责任的人工智能追求至关重要。通过运用文化共识理论对美国的一个全国代表性调查数据集,我们识别了有关负责任人工智能的信念和态度,为开发人员和政策制定者提供了重要的洞察,使他 - 探索科学研究的负责任人工智能:一项实证研究
本文研究了科学研究机构在负责人工智能设计和开发中的道德风险意识和准备情况,揭示了知识缺口和对可用人工智能伦理框架的意识有限。我们的研究结果显示,在没有适当的指导和管理下实施人工智能技术可能会带来潜在的道德风险,因此需要全面的策略来提高团队能 - 开放数据表:机器可读的开放数据集文档和负责任的人工智能评估
介绍了一种无代码、机器可读的开放数据集文档框架,关注负责任的人工智能考虑。旨在提高开放数据集的可访问性、可理解性和可用性,促进更容易发现和使用、更好理解内容和背景以及评估数据集的质量和准确性。该框架旨在简化数据集评估,帮助研究人员、数据科学 - AAAI值得信赖的视觉语言模型的探险:一项调查
通过三个基本原则(偏见、鲁棒性和可解释性)对视觉 - 语言变压器进行深入研究,以提高它们的可靠性和可信度。
- 可解释人工智能是负责任的人工智能:解释性如何创造值得信任和社会负责的人工智能
人工智能是一个有潜力革命化从医疗保健到金融等领域的技术,但需要负责任地开发和部署。这篇研究论文探讨了负责任人工智能和可解释人工智能的关系,并发现可解释人工智能在确保公平性、透明度等方面对负责任人工智能是至关重要的。
- SoUnD 框架:分析(社)会表征在(非)结构化(数)据中的应用
基于责任 AI 的角度,提出了一个框架,用于分析非结构化数据中的人类表达,并识别下游风险。通过应用该框架于两个示例中,使用 Common Crawl web text corpus (C4) 和 LAION-400M,同时提出了一套假设的行 - 构建负责任 AI 的未来:基于大型语言模型的智能体设计的模式导向参考架构
该论文提出了一个模式导向的参考架构,用于指导设计基于大型语言模型的自主代理,实现可负责的人工智能设计,并通过将其映射到两个现实世界代理的架构来评估其完整性和实用性。
- 文本摘要研究中的负责任人工智能考虑:当前实践综述
AI 与 NLP 研究中缺乏对潜在相关利益相关者、背景使用情境以及可能的负面影响等负责任人工智能问题的考虑,尤其在文本摘要任务中。本研究通过分析 2020-2022 年发表的 333 篇 ACL 文选论文,研究并讨论了相关研究和报告实践的局 - 负责任的多智能体行为
用三个责任 AI 支柱(可解释性、公平性和鲁棒性)在多智能体学习中探索可解释性,展示人们如何更好地理解和塑造多智能体学习的新技术。
- 生成 AI 应用中负责任 AI 危害自动测量框架
我们提出了一个框架来自动化测量大型语言模型(LLMs)和相关产品与服务的负责任人工智能(RAI)指标。该框架基于现有的技术和社会技术专业知识,并利用了最先进的 LLMs(如 GPT-4)的能力来自动测量 LLMs 可能违反一系列 RAI 相 - 超越可解释人工智能:面向负责任人工智能的障碍
透明度、可理解性和责任 AI 的局限性以及其与隐私、公平性和争议性等重要方面的联系。
- 收集,测量,重复:负责任人工智能数据收集的可靠性因素
在这篇论文中,我们提出了一种负责任的人工智能(RAI)方法,旨在通过一套指标对数据进行迭代深入分析,从而引导数据收集并影响应用于现实世界中多样用户和内容的人工智能的数据鲁棒性评估。
- 异质数据空间个体公平性和鲁棒性的因果对抗扰动
我们提出了一种新颖的方法,通过研究个体公平性、对抗鲁棒性和结构因果模型之间的关系,特别是在处理离散敏感属性时,来实现个体公平性、对抗鲁棒性和因果性的综合应用。通过引入新的因果对抗扰动和对抗训练,我们创建了一个将个体公平性、因果性和鲁棒性相结 - 当前情况杂乱无章:审视 AI/ML 从业者在共同制定负责任 AI 价值观中的挑战
AI/ML 研究社区近期提出了建立负责任人工智能(RAI)价值观和实践的紧迫需求。本研究通过揭示多学科机器学习从业者在调整 RAI 价值观时遇到的合作生产挑战,为该讨论做出了贡献。我们采访了 10 个组织的 23 名个体,他们负责开发基于 - 负责任人工智能框架的快速综述:引导道德人工智能的发展
简要介绍了几个提供负责人工智能应用程序的框架,发现大多数框架仅适用于需求调查阶段,仅有一些私人公司提供了支持工具。结果表明,还缺乏一个全面的框架,该框架包含所有负责人工智能的原则和所有 SDLC 阶段,并可由不同技能集和不同目标的用户浏览。