- 基于非独立同分布数据的鲁棒联邦学习中的对数标定
本研究采用对抗训练 (Adversarial Training, AT) 框架来提高联邦学习模型对对抗样本攻击的鲁棒性,即联邦对抗训练 (Federated Adversarial Training, FAT);同时通过一种简单而有效的对数 - 用于估计面向模型的分布差异的 R - 散度
通过介绍 R - 散度来评估模型导向的分布差异,我们评估了 R - 散度在各种无监督和有监督任务中的测试能力,并发现其实现了最先进的性能。为了证明 R - 散度的实用性,我们利用 R - 散度在带有噪声标签的样本上训练了鲁棒性神经网络。
- MP-FedCL:面向边缘智能的多原型联合对比学习
本文提出了一种使用多原型策略的联邦对比学习方法 (MP-FedCL),旨在增强分散式智能服务中的隐私保护功能,并在标签和特征分布不独立且倾斜的情况下,证明了多原型策略的有效性,并在 MNIST,Digit-5,Office-10 和 Dom - 随机聚合联邦学习
本文提出了一种针对非独立同分布问题的新型聚类联邦学习方法 StoCFL,它实现了一种灵活的 CFL 框架,支持不同比例的客户端参与和新客户端加入,而且在保持模型性能的同时获得了良好的聚类结果。
- 具有客户独占类别的联邦学习
本文提出了一种基于自然语言类名(class names)在非同分布(non-IID)数据上进行联邦学习(federated learning)的方法,将分类问题转化为数据表示和类名表示之间的匹配,并将分类模型分为数据编码器和标签编码器进行处 - CVPRRSCFed: 随机采样共识联邦半监督学习
该研究提出了一种考虑不同类型客户端的随机采样一致性联邦学习算法,即 RSCFed,通过子取样一致性模型的蒸馏和重加权模型聚合来实现,该方法在自然和医学图像等三个基准数据集上表现优于现有方法。
- FedProc:基于原型构造对比的非独立同分布联邦学习
该研究提出了 FedProc,即原型对比联邦学习,一种简单有效的联邦学习框架,通过利用原型作为全局知识来纠正每个客户的本地训练,使用本地网络架构和全局对比损失来规范本地模型的训练,从而最终获得在非 I.I.D 数据上良好的性能。
- IJCAI基于动态注意力的通信高效联邦学习
本文提出了一种自适应训练算法 AdaFL,该算法通过注意力机制和动态分数方法来平衡性能稳定性和通信效率,实验结果表明相对于 FedAvg 算法,AdaFL 算法在模型精度、性能稳定性和通信效率三个方面都有很大的提高。
- 带有群体噪声的学习
提出了一种新的 Max-Matching 方法来处理群组噪声问题,通过使用匹配机制评价对象与目标之间的关系置信度,考虑群组对象之间的 Non-IID 特征,只选择关系最强的对象来学习模型,以减小噪声的影响,实验证明这种方法可以有效地处理在多 - 非独立同分布推荐系统:推荐范式转换的综述与框架
本文探讨了推荐问题的非 IID 本质和特征,并提出了非 IID 理论框架,从耦合和异质性的角度建立对推荐问题深入全面的认识。这种非 IID 推荐研究可触发从 IID 到非 IID 推荐研究的范式转变,并带来个性化,精准和可操作的推荐。同时, - ICLR通过分桶在异构数据集上进行拜占庭容错学习
在分布式或联邦学习中,我们提出了一种新的攻击方案和简单分层计算机制,并且在实验证明了此方法的有效性并保证了在异构数据集下的收敛性。
- 将后悔最小化和最佳臂识别融合,应用于 A/B 测试
本文提出了一种在线学习算法,结合了最佳手臂识别和成本最小化两个目标,同时在保持遗憾最小化和最佳手臂识别方面具有保证,并将这些结果扩展到实践者面临的非独立同分布情况,旨在通过提供应用程序来权衡成本和决策时间。
- 基于 Lasso 的高维 Cox 回归的非渐进 Oracle 不等式
本研究通过使用 lasso,对高维度 Cox 回归的有限样本特性进行了考虑,我们首先将负对数部分似然函数通过一下非 iid 的和式进行了估计,然后利用点态论证方法,针对这种缺乏 iid 和 Lipschitz 特性的情况,导出了 Lasso