We consider learning in an adversarial environment, where an
$\varepsilon$-fraction of samples from a distribution $P$ are arbitrarily
modified (*global* corruptions) and the remaining perturbations have average
magnitude bounded by $\rho$ (*local* corruptions). Given access to $n$ suc
通过在任意 Wasserstein 距离下考虑扰动,实现鲁棒统计推断的推广。在这种情况下,我们首次证明了一个称为广义弹性的性质,并通过 Moment 或超对交条件证明了这种弹性的有效性。最后,我们提供了两种设计具有良好有限样本速率的 MD 估计器的不同方法,包括弱化差异和扩展分布集的方法,回顾了与 GAN 领域最近相关的研究结果。