建立可靠的基础模型开发 AI 应用
人工智能(AI)在最近几年取得了显著进展,对经济和社会产生了重大影响。然而,仅当 AI 应用根据高质量标准开发并有效地防范新的 AI 风险时,AI 和基于其的商业模式才能充分发挥其潜力。此论文致力于解决 AI 应用可信度的问题,通过提供一个可信 AI 评估目录,旨在帮助开发人员和审计员以结构化的方式评估 AI 应用程序的可信度。
Jun, 2023
研究旨在提高人工智能系统的可信度和信任度,开发能够适应实际应用场景的人工智能系统,并将人类放在其中心地位,使其能够有效地使用系统,理解输出和解释结果以满足监管委员会的要求。
Jan, 2020
本文综述了因果方法对于提高可信 AI 解决方案的应用和发展,因为现有的 AI 模型大多缺乏对人类真实世界理解的因果关系的认识,从而导致了模型泛化性能差、不公平以及难以解释等问题。
Feb, 2023
本研究综述了值得信赖的人工智能(TAI)及其各种定义,提出了离开支配和工程语境中的责任或伦理人工智能等术语以明确任何混淆的建议,并强调了公平性、偏见、风险、安全性、可解释性和可靠性等关键属性和特性以发展一个普遍框架来处理这些问题,同时考虑了欧盟、中国和美国在 AI 领域的政策和法规以及跨国公司面临的调整挑战,提出了一个新的框架 SFMA 来执行 TAI 和规范化措施,同时警示过度规制对 TAI 和技术创新可能造成的危害。
Mar, 2024
欧盟人工智能法案草案及伴随的标准化努力对人工智能系统的符合评估存在问题,不考虑实际的功能可信度和责任归属,而可靠的功能可信度评估应该是符合评估的核心。
Oct, 2023
本研究提供了一种系统的方法来将社会科学信任概念与建立在人工智能服务和产品上使用的机器学习技术相关联,探讨了四种类别的机器学习技术 (公平性、可解释性、可审计性和安全性) 如何影响人们的信任,并介绍了在 AI 系统生命周期的不同阶段建立信任的技术需求。
Nov, 2019
提出了可信人工智能的七个技术要求和三个主要支柱的构建方法,并考虑到了系统整个生命周期中的所有过程和角色的可信性。同样,还介绍了通过审核过程提高人工智能系统的责任的概念,以及为了未来社会进步而必须面对的规制辩论。
May, 2023
基于食品行业中营养标签的成功,本文旨在评估和评级 AI 服务的用户信任度,并提出了面向现实世界场景如健康和食品建议的原则性、多模式、因果关系评级方法的挑战和远景。
Feb, 2023