可信分布式 AI 系统:鲁棒性、隐私和治理
机器学习应用的成功依赖于庞大的数据集和分布式架构,随着其规模的增长,给机器学习带来了挑战。本文研究了在分布式架构中实现隐私和稳健性的成本,并探讨了在机器学习应用中隐私、稳健性和计算效率面临的挑战和解决方案。
Dec, 2023
本文介绍了一种分布式基础设施,用于实现分布式代理之间的点对点信任,从而协同执行保护隐私的机器学习工作流程。使用 Hyperledger Aries,Decentralised Identifiers (DIDs) 和 Verifiable Credentials (VCs) 建立了一个分布式信任体系,促进与心理健康护理相关的联邦学习工作流程。
Jun, 2020
在当前人工智能时代,本研究讨论了负责任的机器学习数据集的重要性,并提出了一个评估数据集的负责任框架。通过公平性、隐私保护和合规性等方面的考虑,我们分析了超过 100 个数据集,发现没有一个数据集能免于公平性、隐私保护和合规性问题。我们对数据集的文档化提供了改进建议,并认为在全球范围内的数据保护法规定下,科学界的数据集创建方法需要修订。
Oct, 2023
人工智能的崛起已经在许多行业中引发了革命性的变革,其广泛应用导致了 AI 和其底层数据在许多智能系统中的分布。本文针对分布式学习中的私有知识共享提供了一项深入调查,检验了在主要的分布式学习架构中使用的各种知识组件。通过分析,我们揭示了在分布式环境中使用这些组件时可能出现的最关键的安全漏洞。我们进一步确定和研究了保护这些知识组件隐私和防止恶意方干预或访问知识信息的防御策略。最后,我们强调了分布式学习中知识共享的一些关键限制,并探索了未来研究的潜在途径。
Feb, 2024
该论文提出了一种基于声誉系统的去中心化深度学习框架,它利用数字代币、本地可信度和差分隐私来确保公平性和隐私保护,实验结果显示其在三种实际环境下均能取得高度公平性,并且精度与集中式和分布式框架相当,高于单独框架。
Jul, 2020
本文从计算的角度综述了 AI 可信赖性的最新技术,其中包含了六个方面:安全、非歧视与公平、可解释性、隐私、责任与审计能力以及环境福祉,旨在帮助读者理解可信赖 AI 的最新技术以及现实系统的应用。
Jul, 2021
通过建立透明的算法模型,研究论文探讨了深度学习的可靠性和信任度,使用数学框架分析了不同计算模型下逆问题的可信解决方案,发现 Blum-Shub-Smale Machines 具有潜力在广泛条件下建立可信的解决方案。
Jan, 2024
我们提出了第一个跨领域可信度学习框架,它包括鲁棒性、隐私、公平性和可解释性等四个概念,在这个研究方向上进行了全面的文献综述,介绍了框架的细节以及基本概念和现有方法,并对未来的研究方向进行了洞察和讨论。
Aug, 2023
提出了可信人工智能的七个技术要求和三个主要支柱的构建方法,并考虑到了系统整个生命周期中的所有过程和角色的可信性。同样,还介绍了通过审核过程提高人工智能系统的责任的概念,以及为了未来社会进步而必须面对的规制辩论。
May, 2023