Dec, 2015

通过增量数据分配选择近乎最优学习器

TL;DR本文研究了一个新颖的机器学习问题,即如何在许多分类器中分配少量的训练数据,以选择一个分类器,在训练所有数据时能够提供接近最优的准确性,同时最小化错误分配样本的成本。通过使用一种基于“不确定性乐观”原则的创新策略Data Allocation using Upper Bounds(DAUB),我们可以在各种真实世界的数据集中实现这些目标,并在理想情况下建立理论上的支持。