关于分散估计中贝叶斯风险的信息论下限
在分布式网络中进行参数估计,考虑每个传感器从基础分布中观察独立样本并具有 $k$ 位通信其样本到集中式处理器,该处理器计算所需参数的估计值。我们为一类广泛的损失和分布模型开发极小化风险的下界,并表明在温和的正则条件下,当 $k$ 较小时,通信约束将使有效样本量减少 $d$ 倍,其中 $d$ 是被估计参数的维数。此惩罚随着 $k$ 的增加而以最多指数级别降低,这对某些模型如高维分布估计成立。对于其他模型,我们表明样本量的减少是与 $k$ 线性递减的,例如,当一些次高斯结构可用时。我们将结果应用于具有乘积 Bernoulli 模型、多项式模型、高斯位置模型和逻辑回归的分布式设置中,从而恢复或加强现有结果。
Feb, 2018
研究如何在分布式网络中学习高维、非参数和结构化(如高斯)分布,并考虑不同通信模型(包括独立、顺序和黑板模型)的交互限制对于最小化风险和 Fisher 信息的影响。
Feb, 2019
本文研究了分布在多个机器上的数据的非参数平滑函数估计问题,其中每个机器上收集了来自白噪声模型的独立样本,并需要在中央机器上构建潜在真实函数的估计值以及在每台机器上限制了传输信息所需的比特数。我们给出了各种设置下统计风险的渐近下限和匹配上限,并且确定了三个不同的区别(通信预算 / 机器数 / 每台机器上可用数据大小),在这些区别中当通信预算很小时,统计风险仅取决于通信瓶颈,而与样本量无关;在通信预算很大的区域内,与非分布式估计的经典极小风险的情况相同;在一种中间机制中,统计风险取决于样本大小和通信预算。
Mar, 2018
本文提出了一种统一的框架,用于基于交互式协议的分布式参数估计,可以导出各种紧密下限,适用于不同的参数分布族;特别是在高斯家族的原型情况下,我们的方法可以规避以往技术的局限性,并补充了匹配的上限。
Oct, 2020
本文研究了高维分布统计估计问题的统计误差和通信成本之间的权衡,并提供了分布式稀疏高斯均值估计问题的紧密的权衡分析结果,这直接导致了分布式稀疏线性回归问题的下界,并给出了在稠密情况下均值估计的第一个最优同时协议。
Jun, 2015
本文为研究局部隐私约束下的估计方案制定下限,推导出了私有估计和受通信限制的估计问题之间的等价性,适用于任意交互的隐私机制,并且得出了所有不同隐私保护级别的尖锐下限。作者作为对研究结果的一个重要推论,证明了有界或高斯随机向量的均值估计的最小最大均方误差按比例缩放的结论为 $d/n * d/min (ε,ε^2)$ 。
Feb, 2019
该研究提出了一种基于 Kashin 表示和随机抽样的方案以及利用 Walsh-Hadamard 矩阵的递归结构来实现隐私和通信效率的联合优化编码和解码机制,对平均值估计和频率估计等问题进行了研究。
Jul, 2020
研究在数据即使隐私保护给定的情况下,隐私保证和结果统计估计器的效用之间的权衡,通过信息论和标准最小最大技术,提出本地隐私约束下统计速率的精确刻画,并提出新的隐私保护机制和计算有效的估计器,以实现界限。
Feb, 2013
探讨了一种新颖的离线强化学习设置,其中多台分布式机器共同合作解决问题,但只允许一轮通讯,并且总信息传输量受到预算限制。对于上下文平滑贝叶斯推断、拟合普通线性模型和高斯过程这些问题,在信息论上建立了分布式统计估计器的最小 max 风险下限,同时提出了一种基于最小二乘估计和蒙特卡罗返回估计的学习算法,并证明它们可以实现最优风险,从而使得分布式离线 RL 算法达到最小 max 下限,此外,还证明了时间差异无法在单轮通讯环境中有效地利用所有可用设备的信息。
Feb, 2022
本文研究一个多个玩家协作下的信息收集与分析的协议,其中信息传输的通道对于推断过程和样本复杂度有着显著的影响,并通过引入卡方距离和其它量度以得出更为准确的样本复杂度下限。
Dec, 2018