实现企业级 AI 部署:降低商业应用中使用 AI 模型的风险
人工智能的优势和风险,现在正在使用的与风险相关的模型,以及一种名为 “人工智能转型风险 - 收益模型” 的新框架。该模型着重于以实际和创新的解决方案为重点,其中利益超过风险,并以医疗保健、气候变化 / 环境和网络安全三个应用案例为例,展示了这种强大的人工智能转型模型的原则、维度和过程的独特相互作用。
Apr, 2024
云生态系统中的隐私和安全论文指出,解决机器学习模型引入的风险存在差距,通过调查 AIaaS 领域,提出了一种分类法来全面检查 ML 模型的创作者和消费者所面临的风险及其已知防御措施,为提供方和消费方提供了基础解决方案。
Jan, 2024
这篇研究论文讨论了如何将人工智能技术,如机器学习和深度学习,应用于企业业务流程管理,以提高效率和客户体验,并呼吁 BPM 社区构建能够向商业用户解释 AI 模型结果的解释性方法。
Jan, 2020
介绍了通过执行全面的 AI 生命周期治理来降低人工智能风险的最佳方法,定量评估现有模型的风险可以类比于如何评估已经建造的房屋的能源效率或医生根据一系列测试评估整体患者健康状况,本文探讨了这一思路,并讨论了这种方法如何改善 AI 的监管。
Sep, 2022
本文使用分层复杂系统框架对人工智能(AI)风险进行建模,并从公共和私营领域的领域专家收集调查数据以分类 AI 影响和可能性,结果显示强大的 AI 代理情景有更多不确定性,对 AI 对齐失败和影响寻求行为的关注增加以及对多智能体环境的信心增强。
Nov, 2022
该研究旨在提高科学领域中人工智能滥用的危险,并呼吁在该领域中负责任地开发和使用人工智能。通过列举科学环境中人工智能带来的风险,并通过化学科学领域的实际滥用示例来展示这些风险,高亮显示了有效的风险管理策略的需求。为此,我们提出了一个名为 SciGuard 的系统来控制科学中人工智能模型的滥用风险,并提出了一个名为 SciMT-Safety 的红队基准来评估不同系统的安全性。我们的提议在评估中显示出最小的有害影响,并且在良性测试中不会影响性能。最后,我们强调了跨学科和合作努力来确保在科学中安全和道德地使用人工智能模型的需求。我们希望我们的研究能够激发研究人员、从业者、决策者和公众之间就科学中的人工智能的道德使用展开有建设性的讨论,以最大化利益,最小化滥用风险。
Dec, 2023
描述和评估了一种多阶段的 AI 部署方法,通过各个阶段采用更准确的推理方法,但是每个阶段的参与都会增加成本。在阐述该架构时,我们提出了一种量化模型不确定性的方法,以便于自信地推迟决策。该架构目前正在印度数千名棉农中进行积极部署,而更广泛的思想适用于挑战性低资源环境中的 AI 部署的不断增长的领域。
Dec, 2023
本文探讨了人工智能技术的风险,并介绍了一种名为 AI 治理的框架,以确保人工智能的负责任使用,从而避免和减轻包括监管、合规性、声誉、用户信任、财务和社会风险在内的风险。
Nov, 2022
基于科学的认证方法,该研究提出了在未经训练的操作环境中评估预训练数据驱动模型可行性的方法,通过深入整合领域知识和数据驱动的人工智能模型,利用物理和相关学科的理论和分析模型,提供安全可靠的工程系统的决策支持,以提高人工智能模型在限制训练数据和动态不确定条件下的可靠性和安全性。
Mar, 2024
通过科学认证方法研究在新的工作环境中使用预训练数据驱动模型的可行性,该方法结合领域知识、理论模型和物理学等学科,提供一种安全工程系统开发工具,通过模拟结果量化预训练模型的物理不一致性,以评估在新的工作环境中使用预训练模型的适用性。
May, 2024