Apr, 2024

关于在线模型选择与分散数据的合作必要性

TL;DR我们研究了在线模型选择与分散数据的问题,从最小化遗憾与计算成本的折衷角度提出了一种联邦算法,并证明了合作的必要性和限制计算成本的条件。我们的算法在分布式在线多核学习中提高了遗憾界限,并依赖于三种新技术:改进的马丁格尔的 Bernstein 不等式,名为 FOMD-No-LU 的联邦算法框架以及模型选择和预测的解耦,这可能具有独立的研究价值。