Jun, 2024
压缩误差反馈实现高效垂直联邦学习
Communication-efficient Vertical Federated Learning via Compressed Error
Feedback
TL;DR提出了一种错误反馈压缩式纵向联邦学习(EFVFL)方法,该方法通过利用错误反馈,在满批次情况下实现了$\mathcal{O}(1/T)$的收敛速度,改善了垂直FL中压缩方法的收敛速度,并且与未压缩的方法相匹配,同时支持使用私有标签。数值实验证实了该方法在改善收敛速度方面的优越性,并验证了理论结果。