主动学习的极小极大分析
提出了一个简单的噪声 - 鲁棒性基于边缘的主动学习算法来查找同质 (通过原点) 的线性分离器,并分析了标签受噪声干扰时的误差收敛性。我们证明了当所施加的噪声满足 Tsybakov 低噪声条件时,算法能够适应未知的噪声水平,并在多对数因子上实现最优统计速率。同时,我们为基于边缘的主动学习算法在会员查询合成场景下的 Tsybakov 噪音条件 (TNC) 导出了下限。我们的分析可能为其他形式的下限提供了见解。
Jun, 2014
我们研究了在主动学习过程中使用区域查询的复杂度与查询数量之间的权衡关系,并通过设计 VC 维度相关的查询方法来有效地学习。对于特定的假设类别,我们展示了更强的结果,包括计算效率和对未知数据集的适应性。
May, 2024
提出一种基于统计学习框架的主动学习算法,能够高效地处理随机分类噪声和差分隐私,且可将其转换为能容忍分类噪声的主动学习算法,同时也实现了用指数级别的误差提高标签节约的差分隐私主动学习算法.
Jul, 2013
本文提出了一种基于最大化外部 Jensen-Shannon 分歧的标签查询采样策略,用于噪声贝叶斯主动学习中的真实标签生成函数的识别,并提供了上下界,表现优于以往的方法。
Dec, 2013
设计了一种用于成本敏感分类的通用非参数主动学习算法,通过构建每个标签的预测成本函数的置信区间,该算法选择最具信息量的向量点,通过仅查询可能是最小的预测成本来与其交互,证明了该算法在与向量空间的交互数量方面达到了最优收敛速率,并且在对 Tsybakov 的噪声假设的一般版本中,通过边界决策的概率质量明确表征了相对于相应被动学习方法的收益,并且通过提供匹配的(仅差对数因子的)下界证明了获得上界的接近最优性。
Sep, 2023
该研究通过研究标签噪声下主动学习的泛化误差收敛速率等方面,探究了嵌套假设类的主动学习的模型选择问题,并提出了一种算法,该算法的错误率保证收敛于最优分类器的可达误差,并定义了实现这些速率显著快于被动学习的充分条件。
Mar, 2011