提出了一种基于非参数估计的回归函数的主动学习算法,并对其在广泛的基础分布类上可达到的推广误差收敛速率提供了概率界限,同时证明了最小化下限,展示了获得的速率几乎是紧密的。
Apr, 2011
该研究考虑在线主动学习来收集回归建模的数据,提出了一种基于阈值的算法来选择最具信息量的观测数据,并将其推广到高维稀疏线性回归,仿真结果表明该算法相对于被动随机抽样具有显著优势。
Feb, 2016
本研究提出了一种方法,通过减小样本复杂度,提高了各种曲线拟合问题包括线性回归、多项式回归和连续稀疏傅里叶变换的活性学习中的解的精度。
Nov, 2017
通过在线化算法实现积极回归问题的解决,利用较少的标签查询,实现收到的数据点的回归,提出新的算法解决问题。
Jul, 2022
提出一种基于统计学习框架的主动学习算法,能够高效地处理随机分类噪声和差分隐私,且可将其转换为能容忍分类噪声的主动学习算法,同时也实现了用指数级别的误差提高标签节约的差分隐私主动学习算法.
Jul, 2013
提出了一种主动和自适应地解决一系列机器学习问题的框架,该框架通过使用一些未标记数据池中的最具信息量的样本,利用先前步骤中获得的信息,使用基于随机梯度下降的主动学习算法来实现近乎最优的风险性能,并构建了一个学习问题变化的估计器,通过使用主动学习样本提供一种自适应的样本大小选择规则,以保证足够的时间步数时超额风险是有界的。
May, 2018
设计了一种用于成本敏感分类的通用非参数主动学习算法,通过构建每个标签的预测成本函数的置信区间,该算法选择最具信息量的向量点,通过仅查询可能是最小的预测成本来与其交互,证明了该算法在与向量空间的交互数量方面达到了最优收敛速率,并且在对 Tsybakov 的噪声假设的一般版本中,通过边界决策的概率质量明确表征了相对于相应被动学习方法的收益,并且通过提供匹配的(仅差对数因子的)下界证明了获得上界的接近最优性。
Sep, 2023
提出使用互信息测量方法的主动学习模型,使用 Bayesian linear basis functions 模型,在训练聚合数据的回归模型时减少标注集的成本,并实现更好的预测性能。
Oct, 2022
通过交互查询子集示例的标签,主动学习器在模型类和大量未标记示例的情况下学习适合数据的模型。本文提供了一个适用于极大似然估计的两阶段主动学习算法和标签需求的上限和下限分析,并表明这种方法在一些情况下可以实现近乎最优的性能。
Jun, 2015
我们研究了在各种假设下,损失和基于不确定性的主动学习算法的收敛速度。首先,我们给出了一组条件,用于线性分类器和线性可分数据集,以展示对基于损失采样和不同损失函数的收敛速度保证。其次,我们提供了一个框架,通过应用已知的随机梯度下降算法的收敛速度保证,来推导基于损失采样的收敛速度界限。最后,我们提出了一种主动学习算法,它结合了点采样和随机 Polyak 步长。我们展示了对平滑凸损失函数的此算法进行收敛速度保证的采样条件。我们的数值结果证明了我们提出的算法的效率。
Dec, 2023