Sep, 2020

分布式斯坦变分梯度下降的联合广义贝叶斯学习

TL;DR本文提出了一种名为 Distributed Stein Variational Gradient Descent (DSVGD)的非参数广义贝叶斯推理框架,旨在通过维护中央服务器上的多个非随机交互粒子来最小化全局自由能,达到在通信负载和通信轮数方面的灵活权衡,并比较频率学派和贝叶斯联合学习策略,在精确度和可伸缩性方面表现出众,同时提供良好的校准性和可信度的预测。