COBRA: 面向上下文的伯努利神经网络用于声誉评估
本文介绍了一种分布式基础设施,用于实现分布式代理之间的点对点信任,从而协同执行保护隐私的机器学习工作流程。使用Hyperledger Aries,Decentralised Identifiers(DIDs)和Verifiable Credentials(VCs)建立了一个分布式信任体系,促进与心理健康护理相关的联邦学习工作流程。
Jun, 2020
提出了一种通用的解释型AI模型TRUST,采用因子分析、互信息和多模态高斯分布等方法,用于解释海量数字数据应用中黑盒子型AI的输出,案例研究表明该模型在工业物联网网络安全领域表现良好,对新的样本的解释成功率平均可达到98%,且在性能、速度和解释方式等方面优于流行的LIME模型。
May, 2022
该研究分析了联邦学习中信任度评估的现有要求,提出了六个支柱(隐私、强壮性、公正性、可解释性、问责制和联邦)和30多个计算FL模型信任度水平的度量标准,并设计了一个算法FederatedTrust,可以计算FL模型的信任度得分。通过在不同联邦配置下使用FEMNIST数据集进行的四个实验,展示了计算FL模型信任度的FederatedTrust的实用性。
Feb, 2023
本文提出了一种知识增强的图神经网络(KGTrust),用于在社会物联网(SIoT)中进行更好的信任评估,该方法结合了用户和对象的语义知识以及增强的信任关系,能够有效地捕捉SIoT信任的多方面特性。实验结果表明,KGTrust方法优于当前的最先进方法。
Feb, 2023
本文提出了一种基于GNN的准确信任评估模型TrustGuard,支持信任动态性,在面对攻击时具有鲁棒性,并通过可视化提供解释,该模型在两个真实数据集上的实验表明,比现有的基于GNN的信任评估模型更具优势。
Jun, 2023
新兴分布式人工智能系统通过稳健性保证、隐私保护和公平意识在分布式学习中改善了安全、隐私和公平的问题。本文提供了分布式学习的不同架构概述、围绕对抗攻击、隐私保护和公平治理的对策分类,并讨论了面临的挑战和未来研究方向。
Feb, 2024
通过考虑客户端和服务器的可信度需求,我们提出了一个新的框架来解决联合学习中的双向信任问题,包括创建服务器和客户端的偏好函数、建立基于声誉的推荐系统、分配可信度分数、使用统计的四分位数方法进行设备的信任度评估以及设计智能匹配算法。通过模拟和实验结果,我们的方法提高了信任水平、全局模型准确性,并减少了系统中的不可信客户端。
May, 2024