Feb, 2024

基于期望最大化和 Turbo 深度近似消息传递的贝叶斯联合学习

TL;DR我们提出了一种基于消息传递的贝叶斯联邦学习框架 EM-TDAMP,通过组稀疏先验实现结构化模型压缩,通过期望最大化和 Turbo deep approximate message passing(TDAMP)相结合来实现分布式学习和压缩,从而加速收敛,通过在波士顿房价预测和手写识别中的应用和广泛的数值结果演示了 EM-TDAMP 的优势。