- 面向集体网络物理系统的软件工程
今天的分布式和普适计算涉及到大规模的网络生态系统,这些系统由密集和大型设备网络组成,这些设备可以进行计算、通信和与环境及人进行交互。本文探讨了在软件工程中这种 “集体计算范式” 的动机、现状和影响,讨论了其特殊的挑战,并概述了未来研究的路径 - 分布式深度学习中的前向 - 前向
通过分布式计算环境中采用 Geoffrey Hinton 的 Forward-Forward(FF)算法来增强神经网络的训练,该论文介绍了一种新的分布式深度学习方法。该方法利用双向传递策略进行前向传递,与传统的前向和后向传递方法有显著的区别 - PeersimGym:使用强化学习解决任务卸载问题的环境
通过开发和优化计算网络中的任务卸载策略,引入了一个可自定义的模拟环境以支持深度强化学习代理,并展示了深度强化学习方法在分布式计算环境中显著提升任务卸载策略的潜力,从而弥合了理论强化学习模型和实际应用之间的差距。
- 大数据计算的统计方法选择性综述:分布式计算、子抽样和小批量技术
该论文选择性地回顾了大数据分析的统计计算方法。该文重点研究了三类统计计算方法:(1) 分布式计算,(2) 子采样方法,以及 (3) 小批量梯度技术。
- 共识学习:一种新的去中心化集成学习范式
该研究论文介绍了一种新颖的分布式机器学习范式 —— 共识学习,它将经典的集成方法与点对点系统中部署的共识协议相结合。该算法包括两个阶段:参与者开发模型并对任何新的数据输入提交预测;个体预测作为输入参与通信阶段,该阶段由共识协议控制。共识学习 - 流式物联网数据与量子边缘:一个经典 / 量子机器学习应用案例
研究探索边缘计算在将量子机器学习整合到分布式计算连续体中的应用,识别主要挑战及可能的解决方案,并在物联网场景中展示了量子机器学习分析的初步结果。
- 不完全代理的认知逻辑的单纯模型
研究论文中,我们系统地对非纯 Ⅱ 阶复形模型的设计选择进行分类,并为其相应的逻辑系统进行公理化,通过分布式计算的同步系统示例进行了说明。
- Data-Juicer:大型语言模型的一站式数据处理系统
我们提出了一种强大而灵活、易于使用的数据处理系统 Data-Juicer,它提供了 50 多种内置的多功能操作符和可插拔工具,通过可视化和自动化评估能力,加快数据处理并获得数据洞察力,提供用户友好的界面并发布多种数据配方,同时实现高效和可扩 - 基于在线动态嵌入预测的减少陈旧性的分布式 GNN 训练
SAT 是一种新颖的可扩展分布式 GNN 训练框架,通过建立包括时序图模型以预测未来嵌入的模型,有效减轻了缓存历史嵌入的陈旧问题,从而在多个大规模图数据集上实现了更好的性能和收敛速度。
- 利用语义和机器学习扩展数据科学解决方案:博世案例
通过将语义技术和机器学习与云系统相结合,SemCloud 为非云计算专家提供了一个语义增强的云系统,它依靠领域本体和数据集成映射来实现数据处理和分析的分布式计算。
- 朝着对独立子网络训练的更好理论理解
本文介绍了一种名为 Independent Subnetwork Training(IST)的高效神经网络模型并行化技术,其与压缩通信的分布式方法有着基本差异,在解决分布式大规模神经网络模型训练中的通信与计算问题上具有良好的优化性能。
- 大规模分布式学习中的拟牛顿更新
开发了具有卓越统计分析、计算和通信效率的分布式拟牛顿(DQN)框架,无需 Hessian 矩阵倒置或通信,在小数次迭代下提供了统计效率的结果,强调与现有方法的差别在于对统计学性质的调查。
- 基于私有设备局部敏感哈希的大规模分布式学习
使用新的哈希函数族,开发第一个在设备上具有私密性、个性化和内存效率高的局部敏感哈希框架,实现了隐私和个性化,能够与其他 LSH 框架相竞争,训练大规模推荐网络。
- 在可计算性逻辑网中实现动态规划
本研究介绍了一种算法的新定义和相应的算法语言 CoLweb,该方法通过高级别的证明承载分布式算法设计方法简化了算法设计,同时统一了其他方法,如递归逻辑 / 函数算法,命令式算法等,并将 Horn 子句定义细化为两种类型,即盲目普遍量化(BU - 非临床文本信息检索在癌症相关论坛帖子的高效标注
本研究使用分布式计算,文本检索,聚类和分类方法,构建了一个完全功能的原型系统,可以从非临床和免费的在线信息中澄清癌症患者轨迹。聚类结果表明,邻域半径对聚类性能影响最大。达恩麻省理工学院模型可以在 46.1 秒内对 50000 个论坛帖子进行 - 进化计算与隐私的交会
本文介绍了 BOOM 算法,研究了进化计算中的隐私保护问题。针对三种典型的优化范式(即集中式、分布式和数据驱动的优化),本文采用 BOOM 算法以平衡优化性能和隐私保证的方式探讨了潜在的隐私保护技术并提出新的隐私保护进化计算方向。
- 分布式图神经网络训练:综述
这篇综述论文分析了分布式图神经网络训练的三个挑战以及通过四类优化技术解决这些挑战的方法:GNN 数据分区、GNN 批量生成、GNN 执行模式和 GNN 通信协议。最后,本文总结了现有的多 GPU、GPU 集群和 CPU 集群的分布式 GNN - 混合专家混合精度神经网络的调优
通过添加新的数据类型到 Caffe,增加了现有商品电子设备上深度学习推断速度,在某些设备上,内存使用量可以降低到 3.29 倍,推断速度可以提高到 3.01 倍,并提出了一种混合专家模型的变化来增加图像分类中的推断速度。
- KDD基于分层分离树的可扩展差分隐私聚类
通过利用树嵌入和标准的降维技术,我们提出了一种高效易实现的算法,能够解决 $k$- 中位数和 $k$- 均值的私有聚类问题,具有很好的时间和空间复杂度,适用于大规模分布式计算环境,并有可观的隐私保障.
- ICML通过边缘 PRUNE 框架实现容错协同推理
本文提出了基于形式化定义的 Edge-PRUNE 分布式计算框架,旨在为容错协作推断提供灵活的基础设施。实验结果显示了通过协作推断实现的可行推断时间节省及其花费。