- 分布式数据上的条件平均处理效应估计:一种保护隐私的方法
我们提出了一种名为数据协作双重机器学习(DC-DML)的方法,用于估计具有隐私保护的分布式数据的 CATE 模型,并通过数值实验对该方法进行了评估。
- 大规模和分散图的合作网络学习
建立一种合作网络学习(CNL)框架以确保各种图任务的安全图计算,并解决图相关研究中的隐私问题和整合分布式图数据结构,从而促进网络研究社区的合作和创新。
- 当去中心化优化遇上联邦学习
本文系统地研究了分散式学习对于联邦学习的分布式最优化的机遇和挑战。
- 分布式神经表征用于原位反应式可视化
本文介绍了使用反应式编程实现计算建模的 in situ 可视化和控制,并提出利用隐式神经网络实现分布式数据的时间缓存系统。该系统容量为先前实现的 100 倍,并成功应用于 Ascent 基础设施的真实世界模拟中。
- 一种基于 XGBoost 的公平高效的混合联邦学习框架用于分布式能量预测
提出了基于 XGBoost 的混合联邦学习框架,通过组合水平和垂直联邦学习,从真实时间的外部特征中实现分布式电力预测,并设计了动态任务分配方案以提高训练效率和信息公平性。
- 从分布式机器学习到联邦学习:一项调查
通过对联邦学习的现有作品进行全面调查,提出功能框架和分类学相关技术,以及联邦学习系统的分布式培训,数据通信和安全性。
- 基于图的多任务学习:一种分布式、流式机器学习方法
本文是多任务学习的一篇综述,主要介绍了在分布式数据和网络系统上学习多个相关任务的新策略以及合作规则如何促进不同任务相关性模型,同时也解释了如何和何时合作的方式比非合作的策略更有效。
- 动量梯度下降加速联邦学习
本研究探讨了动量联邦学习在解决分布式数据机器学习问题方面的应用。在本文中,我们提出了一种新的方法来将动量梯度下降算法应用于本地更新步骤中,以加速全局收敛。我们还建立了动量联邦学习的全局收敛性质,并对其收敛速度进行了上界分析,并与仅使用一阶梯 - 具备差分隐私的联邦学习用于敏感健康数据
本文介绍了一种联邦学习框架,可以从不同站点本地持有的分布式健康数据中学习全局模型,提供了两个级别的隐私保护,第一级别的隐私保护不在模型训练过程中移动或共享原始数据,第二级别的隐私保护使用差分隐私机制防止对模型的潜在隐私攻击,并在两个医疗应用 - ICML不可信来源中的健壮学习
该研究通过统计学习理论视角研究了机器学习中如何从分布式、众包等外部数据源中进行稳健学习,提出了一种通过自动抑制无关或损坏数据的过程, 并通过实验证明其比鲁棒统计和分布式优化的替代方法具有更高的精度和准确性。
- 走向智能边缘:无线通信与机器学习相遇
人工智能的复兴引发了边缘学习新研究领域的兴起,以支持在各种边缘设备上部署基于人工智能的应用程序,该领域通过利用移动边缘计算平台及在大量边缘设备上分布的海量数据来克服每个边缘设备的有限计算能力和数据量,并提出了一些以学习为驱动的无线通信设计原 - 分布式权重整合:一个脑分割案例研究
介绍了分布式权值整合 (DWC), 它是一种连续学习方法,用于将独立数据集上训练的神经网络的权重整合。通过脑分割案例研究,我们发现 DWC 导致在不同站点的测试集上性能提高,同时与集成基线相比,在非常大且完全独立的多站点数据集上保持泛化性能 - 通信约束下的分布式非参数回归
本文研究了分布在多个机器上的数据的非参数平滑函数估计问题,其中每个机器上收集了来自白噪声模型的独立样本,并需要在中央机器上构建潜在真实函数的估计值以及在每台机器上限制了传输信息所需的比特数。我们给出了各种设置下统计风险的渐近下限和匹配上限, - 分布式部分聚类
提出了一种在分布式环境下运行的算法来解决部分聚类问题,包括 k 中心,k 中位数和 k 均值等,旨在提高通信效率和解决噪音和数据不确定性带来的影响。
- 分布式分类与优化的高效协议
本文提出了基于多项式权重更新的两方协议,并且展示了一般的算法设计方法来解决在分布式数据中的高效学习问题。