带有预测的在线列表标记
本研究考虑在O(log n)时间内估计标签的条件概率。通过将此问题归约为树状结构中的一组二分类回归问题,分析了与树的深度成比例的代价上限,并提出了第一个可证明构建标签的对数深度树来解决此问题的在线算法,经实验证明适用于约106个标签的数据集。
Aug, 2014
本文提出了一种基于自适应重要性抽样的在线评估框架,该框架可通过自适应分布来标记物品,以最大化统计精度,并通过实验验证,利用Dirichlet-tree模型实现了比固定标签预算的最新技术平均MSE更高的结果。
Jun, 2020
介绍了一种算法设计范例——基于学习预测器的算法,将在线学习技术应用于预测器学习、调整鲁棒性-一致性折中并绑定样本复杂度,在构建优美的预测器的同时,在二分图匹配、滑雪租赁、页面迁移和作业调度等多场景中优化了多个现有结果,且提供了第一批基于学习理论的担保。
Feb, 2022
本文研究了在多个机器学习预测的基础上增强的在线算法。我们提出了一个通用的算法框架,用于多重预测的在线覆盖问题,该算法能够获得与最佳预测器性能相竞争的在线解决方案。该算法还能够同时使竞争性达到最佳预测和最佳在线算法的性能水平,并应用于解决一些经典问题。
May, 2022
在存在噪音标签的情况下,我们研究了在线分类问题。通过一般的核来建模噪音机制,为任何特征-标签对指定了一个(已知)噪音标签分布集合。每个时间步骤,对手根据实际的特征-标签对从核指定的分布集合中选择一个未知分布,并根据所选分布生成噪音标签。学习者根据迄今为止观察到的实际特征和噪音标签进行预测,如果预测与真实情况不同,则遭受损失1(否则为0)。预测质量通过计算有限时间视野T上的极小化风险来量化。我们证明了对于广泛的自然噪音核、对手选择的特征和有限类别的标记函数,极小化风险可以上界独立于时间视野并以标记函数类别尺寸的对数形式增长。然后,我们通过随机顺序覆盖的概念将这些结果推广到无限类别和随机生成的特征。我们的结果通过对在线条件分布估计的新颖归约提供了直观理解,并且扩展并包含了Ben-David等人(2009)的研究结果,具有显著的广泛性。
Sep, 2023
通过学习增强算法的角度探索排序问题,其中算法利用可能存在错误的预测来提高效率。我们考虑了两种不同的情境:在第一种情境中,为每个项目提供了其在已排序列表中的位置预测;在第二种情境中,我们假设存在一种“快速但不精确”的方法来比较项目,除此之外还有慢而准确的比较。对于这两种情境,我们设计了新的简单算法,仅使用O(Σi log ηi)个精确比较,其中ηi是第i个元素的适当定义的预测误差。特别是,随着预测质量的下降,比较次数从O(n)平滑地降低到O(nlogn)。我们证明在所考虑的误差度量方面,比较复杂度在理论上是最优的。与现有的自适应和非自适应排序算法进行的实验评估表明了在排序任务中应用学习增强算法的潜力。
Nov, 2023
通过将机器学习建议整合到跳跃表的设计中,我们改进了传统数据结构设计,并构建了一种能够在几乎两倍内提供最优预期搜索时间的学习增强型跳跃表,即使预估的搜索查询存在误差,该方法依然能够是唯一最优的,而且如果搜索查询符合普遍存在的齐夫分布,那么我们的跳跃表的预期搜索时间只是常数,与项的总数量无关,而传统跳跃表的预期搜索时间则是对数时间。同时,通过实证研究,我们证明了我们的数据结构在合成和真实数据集上均优于传统跳跃表。
Feb, 2024
利用机器学习模型从过去和现在的数据中获得的预测,近期算法设计的先进方法已经显示出提高性能的潜力,并在预测失败时提供最坏情况保证,本文研究在线问题,着重于将学习问题与算法挑战相互整合,并设计了专为所需算法任务而量身定制的在线学习算法,通过细致设计的明确学习算法提出了优化总体性能的新算法,并证明了我们方法的潜力通过改进以前研究中建立的性能界限。
Mar, 2024
在线分类研究中,研究者利用对未来示例的预测来改进在线学习算法,以减小期望遗憾并提高分类准确性。该研究还证明了当未来示例可准确预测时,在线学习可以与转导式在线学习相媲美,从而对近期基于预测和分布假设的在线算法的研究提供了补充。
May, 2024