2024 年《模型卡》:从可信度和风险管理角度重新分类伦理考虑的类别
本文提出了一个名为 “模型卡” 的框架,以鼓励对训练的机器学习模型进行透明的报告,并为不同应用领域提供基准评估。模型卡旨在推进机器学习和人工智能技术的负责任民主化,提高了解 AI 技术工作情况的透明度。
Oct, 2018
该论文关注了 COMPLYING WITH THE EU AI Act 准则并开发实施 AI 系统的情况,分析了不同伦理准则的文献细节、伦理 AI 框架的适用性等问题,提出了伦理 AI 的限制以及进行可靠的 AI 开发的建议
May, 2023
在本研究中,我们结合欧洲联盟的最新监管努力和针对 AI 指南的初步提案与研究趋势:数据和模型卡片。我们建议在整个开发过程中使用标准化卡片来记录 AI 应用,主要贡献是引入了用例和操作卡片,并对数据和模型卡片进行了更新,以满足监管要求。我们的卡片引用了最近的研究以及监管规定的来源,并在可能的情况下提供了额外支持材料和工具箱的参考。我们的目标是设计出有助于从业人员在开发过程中开发安全 AI 系统的卡片,同时使得第三方对 AI 应用进行高效审计,易于理解,并在系统中建立信任。我们的工作结合了与认证专家、开发人员和使用开发的 AI 应用的个人的访谈洞察。
Jul, 2023
研究旨在提高人工智能系统的可信度和信任度,开发能够适应实际应用场景的人工智能系统,并将人类放在其中心地位,使其能够有效地使用系统,理解输出和解释结果以满足监管委员会的要求。
Jan, 2020
提出信任 AI 系统是一个元决策的过程,针对不透明的 AI “黑匣子” 提出了 TAI 的新的分类法,涵盖了解释性,权威性和基础三个关键领域,并建立了十个维度来度量信任。旨在通过这个分类法,从战略决策的角度探索不同的 TAI 方法。
Jun, 2023
该研究论文通过对 EU AI 法案规定的技术文档的深入分析,以 AI 风险管理为重点,提出了 AI 卡作为一种新颖的综合框架,通过人机可读的格式来表示 AI 系统的预期用途,以实现透明性、可理解性和互操作性,为法律合规性和一致性评估任务提供了自动化工具的开发能力。
Jun, 2024
本文探讨了 AI 可靠、道德、和值得信任的运用,分析了机器学习周期中的每个部分可能带来的信任问题,并提出了一些研究问题以帮助引导未来研究,以确保制造业中的 AI 应用安全和负责任。
May, 2023
本文提出了数据卡片 (Data Cards) 的概念以促进人性化的大规模模型开发过程中透明、有目的性和人性化的数据记录方法,数据卡片是必要的用户文档,提供关于机器学习数据各个方面的基本事实的结构化总结。本文描述了将数据卡片落实到实际应用的多种框架,并通过两个案例研究报告了支持领域、组织结构和观众群体的可采用特性,最后总结了 20 个数据卡片的部署经验。
Apr, 2022
人工智能(AI)在最近几年取得了显著进展,对经济和社会产生了重大影响。然而,仅当 AI 应用根据高质量标准开发并有效地防范新的 AI 风险时,AI 和基于其的商业模式才能充分发挥其潜力。此论文致力于解决 AI 应用可信度的问题,通过提供一个可信 AI 评估目录,旨在帮助开发人员和审计员以结构化的方式评估 AI 应用程序的可信度。
Jun, 2023
提出了可信人工智能的七个技术要求和三个主要支柱的构建方法,并考虑到了系统整个生命周期中的所有过程和角色的可信性。同样,还介绍了通过审核过程提高人工智能系统的责任的概念,以及为了未来社会进步而必须面对的规制辩论。
May, 2023