BriefGPT.xyz
大模型
Ask
alpha
关键词
training latency
搜索结果 - 2
高效异构联邦学习:一种基于匹配和分割学习的方法
提出了一种新颖的拆分联邦学习(SFL)框架,它通过将具有不同计算资源的客户端配对,将神经网络模型逻辑分为两部分,每个客户端只计算分配给它的部分,从而显著提高了联邦学习的训练速度,并在独立相同分布(IID)和非 IID 数据分布中实现了高性能
→
PDF
10 months ago
Glyph: 在加密数据上快速准确训练深度神经网络
该研究论文探讨了一种名为 Glyph 的先进技术,旨在加速和精确地使用全同态加密技术在加密数据上训练深度神经网络,并通过转移学习方法改进了测试精度和降低了计算复杂度。
PDF
5 years ago
Prev
Next