在大量随机实验中,通过生成决策指南,我们引入了一种新的统计框架来定义并构建适用于同质人群的最佳代理度量标准,该度量标准能够与长期度量密切跟踪,并在噪声较高的情况下进行优化问题的解决。通过运用这种方法,我们在一个工业推荐系统的大量随机实验中应用我们的方法进行实例化和评估,并构建了相对于几个基准值表现优异的代理度量标准。
Sep, 2023
通过从短期信号中学习指标,我们能够提高在线控制实验的统计功效,减少实验成本,同时有效降低 type-II 错误。
Feb, 2024
本研究提出一种算法来利用仅有的三个适当识别出的虚拟属性来精确测量公平性和减轻偏见,并展示其允许仅使用虚弱代理来增加用户隐私。
Oct, 2022
该研究提出了一种新的代理损失方法,它结合了基于对和代理的方法的优点并克服了它们的局限性,同时具有更快的收敛速度和对嘈杂标签和离群值的鲁棒性,能充分利用数据之间的关系,其中该方法在四个公共基准测试中表现出最先进的性能和最快的收敛速度。
Mar, 2020
本文介绍了推荐系统等互动应用中在线评估方法的重要性,分析了离线评估方法的特点,提出了使用基于模拟的比较作为评估手段的优点。
Sep, 2022
我们的研究目的是调查和比较离线评估指标的在线表现。我们表明,在评估过程中对热门商品进行惩罚,并考虑交易时间能够显著提高我们选择最佳推荐模型的能力。我们的结果经过五个大规模真实推荐数据的平均处理,旨在帮助学术界更好地理解离线评估和更贴近推荐系统实际应用的优化标准。
Aug, 2023
本文提出了一种 Calibrate Proxy (CP) 结构,它使用真实样本信息提高了代理损失中的相似度计算,并引入校准损失来约束代理优化向类特征中心。 通过多个实验验证了我们方法在三个公共数据集和多个合成噪音标签数据集上的有效性,表明我们的方法可以有效地改善常用代理损失在正常和噪声数据集上的表现。
Apr, 2023
论文介绍了一种通过生成小型的代理数据集来加速机器学习模型训练的方法,并将其与基于完整数据集训练的基准模型进行了对比,实验证明该方法能够提高模型训练效率并得到高质量的实验结果。
Jun, 2019
本文研究在没有标记受保护组的数据集的情况下,通过改善代理组的公平度量来提高真实敏感组的公平度,并在基准和实际数据集上进行了实验。 然而,该策略的有效性可能取决于公平度量的选择以及代理组在约束模型参数方面与真实受保护组的对齐程度。
Jun, 2018
本研究提出了一种名为 Informative Sample-Aware Proxy(Proxy-ISA)的基于代理(proxy)的深度度量学习方法,该方法使用一种定时的阈值函数直接修改每个样本的梯度权重因子,使模型更加敏感于信息样本,进而取得更优的检索精度表现。
Nov, 2022