本文探讨了人工智能技术的风险,并介绍了一种名为 AI 治理的框架,以确保人工智能的负责任使用,从而避免和减轻包括监管、合规性、声誉、用户信任、财务和社会风险在内的风险。
Nov, 2022
ML 在安全性方面存在漏洞,提出威胁模型并对攻击进行分类,探究了模型准确性与抗敌对操作的关系。
Nov, 2016
机器学习系统的采用和部署引发了伦理事件和社会关注,需要有准确的伦理准则来审计这些系统,我们提出了一个基于机器学习生命周期的审计程序,以透明性和问责制为中心,并扩展了欧洲委员会发布的 AI-HLEG 指南,通过两个真实用例的试点测试,我们讨论了机器学习算法审计的不足之处和未来的发展方向。
May, 2024
本文提出了一种全球语言数据治理的方法,该方法旨在将数据管理围绕利益相关者、价值观和权利组织起来。我们的提议基于分布式治理的先前工作,并通过来自 60 个国家的研究员和实践者的国际研究合作进行了支撑。我们提出的框架是以语言数据为重点的多方国际治理结构,并纳入支撑其工作所需的技术和组织工具。
May, 2022
该研究讨论了机器学习算法的威胁模型,提出了三个解决方案:验证和准入控制、可靠的攻击记录机制和安全与隐私的形式化框架,通过这些方案来设计出较好的机器学习系统。
Nov, 2018
本文分析了目前认证方案存在的挑战和不足,讨论了开放的研究问题,并针对基于机器学习的分布式系统提出了第一个认证方案。
May, 2023
通过分布式机器学习技术,如联邦学习,实现在不泄露个人和敏感数据的情况下进行大规模的机器学习,同时提出隐私保护这一术语无法真正制定隐私定义的风险,并提供建议和示例,帮助非隐私技术专业人员实现算法的治理、安全性、隐私性和可验证性。
Dec, 2021
本文提出了一个基于现有进展的全面质量管理框架视角,并确定了软件工程研究的新领域,以实现更可靠的人工智能。
Jun, 2020
本文对机器学习在自动化持续集成(CI)阶段中的应用进行了系统性知识总结,旨在弥补现有解决方案中的不足并推动领域技术的发展。
Apr, 2023
这项研究通过对 74 篇相关论文的系统文献综述,分析了 FedML 的现实适用性及其实际应用中遇到的挑战,并讨论了 FedML 在真实场景中整合的困难,为进一步发展和实施 FedML 在隐私关键情景中做出了贡献。
Aug, 2023