- 在线平滑分类可能比批处理分类更困难
在线分类在平滑对手条件下的学习与 PAC 模型下的批处理学习相对应,当标签空间无界时,平滑在线分类可能比批处理分类更困难,但我们找到了一个条件,确保假设类的 PAC 可学习性足以保证其平滑在线可学习性。
- 在线分类与预测
在线分类研究中,研究者利用对未来示例的预测来改进在线学习算法,以减小期望遗憾并提高分类准确性。该研究还证明了当未来示例可准确预测时,在线学习可以与转导式在线学习相媲美,从而对近期基于预测和分布假设的在线算法的研究提供了补充。
- 深度学习用于低延迟、量子就绪的射频传感
通过深度学习将量子技术与实时 RF 信号分类结合,实现了低延迟在线分类和突破物理极限的下一代量子 RF 传感器。
- 贝叶斯在线学习用于共识预测
通过在线分类中充分利用现有的分类器和人类专家,研究了模型预测方面不收费,但询问人类专家会产生一定成本的任务。鉴于无法获得准确的真实标签,我们将预测目标定义为所有专家共识投票。鉴于获得完整共识可能成本高,我们提出了一般的在线贝叶斯共识估计框架 - 鲁棒在线分类:从估计到去噪
在存在噪音标签的情况下,我们研究了在线分类问题。通过一般的核来建模噪音机制,为任何特征 - 标签对指定了一个(已知)噪音标签分布集合。每个时间步骤,对手根据实际的特征 - 标签对从核指定的分布集合中选择一个未知分布,并根据所选分布生成噪音标 - 自主线性分类
在线分类中,学习器根据一系列示例来预测其标签,以在线方式最小化错误总数;在自主学习变体中,学习器事先了解示例池,并可以自适应地选择预测顺序。本文研究了预测顺序选择的能力,并在线性分类的基本任务中首次建立了最差顺序学习和随机顺序学习之间的强分 - ICML使用付费随机专家在在线分类中平衡支付和准确性
本研究介绍了一种基于 Lipschitz bandit 和代理损失的在线学习算法,使用有偿随机专家进行在线分类决策,并与标准 Lipschitz bandit 设置相比,总成本在 T 轮后不超过预测器的成本上限。
- 带有部分反馈的在线分类的机会均等性
研究了一种在线分类问题,其中个体按固定但未知的分布一个接一个地到达,并必须被分类为积极或消极,算法只有在他们获得正分类时才会观察到个体的真实标签。该设置捕捉到许多分类问题,要求算法满足公平性约束.
- 自适应的代价敏感的在线分类
本文提出了一类基于自适应正则化的代价敏感在线分类算法,并将描绘技术引入到算法中以提高效率。通过针对真实世界的在线异常检测任务的应用,证明了该算法在各种领域中解决代价敏感在线分类问题的有效性和效率。
- 基于贝叶斯的非完全分类算法 —— 在线姓名消歧案例研究
本文提出了一种基于贝叶斯非排它性分类框架的在线姓名消歧方法,使用 Dirichlet 过程先验和正常 * 正常 * Inverse Wishart 数据模型来识别训练数据中没有记录的新不确定实体,使用一次扫描 Gibbs 采样器进行在线分类 - 无约束在线凸优化的无悔算法
本文提出了在线凸优化算法来解决无约束情况下在线预测和分类的问题,并证明了其相对于参数 x^* 几乎达到最优的遗憾界。