带有平局的排名的加权相关指数
通过引入新颖变量和优化过程处理各种数据集,包括机器翻译,我们展示了关于 Kendall tau 系数 - 的绑定问题,提出了一种新的变量,使得多个版本的性能评估更公平。
May, 2023
本文提出了一个简单的算法,用于计算两个一元随机变量之间的距离协方差。该算法基本上包括两个排序步骤,时间复杂度为 $O (nlog (n))$,比现有技术更快速。该算法的速度可以帮助研究人员探索大型数据集中复杂的依赖结构。
Oct, 2018
本文提出了一种迭代的排名聚合算法 ——Rank Centrality,该算法基于随机游走解释,用于发现从成对比较中学习出的对象分数。该算法的有效性以 Bradley-Terry-Luce(BTL)模型为例,并通过边界收敛速度分析方法估计出了对 BTL 模型假定分数与算法估计分数之间的有限样本误差率。
Sep, 2012
介绍了基于排名的指标来生成缺失的负样本,提出了两种改进现有指标的方法(不同聚合函数和概率理论),并提出了更易于解释和比较的几个新的基于排名的指标,而且还伴随着使用这些指标评估知识图谱嵌入模型的示例。
Mar, 2022
本文提出了积分梯度正则化 (IGR) 方法,可以通过最大化自然和扰动归因之间的余弦相似度来获得健壮的模型归因,从而提高模型的对抗性稳健性。在不同模型和数据集上的实验验证了我们的分析结果。
May, 2022
特征选择是处理高维数据时的关键步骤,本文提出了一种基于 Jensen Shannon 散度的信息论方法来衡量算法的稳定性,该方法能够适用于不同的算法输出结果,并具备校正变化、上下界和确定性选择条件等优良特性。通过在控制条件下生成的数据和与其他流行度量标准的比较,验证了该稳定性度量标准的实用性和优势。在实际问题中,该方法对于食物质量评估具有潜在的稳定性评估能力。
Feb, 2024
本文提出了若干种排列的正定核函数,其中包括了 Kendall 核函数、加权 Kendall 核函数,探究了它们的优化方法和在高阶排列核函数上的推广。
Feb, 2018
本文研究了具有单调对手的前 K 名排名问题,在随机生成的比较图的基础上,统计学家的目标是根据半随机比较图中的成对比较,准确地确定前 K 名的首选项目。主要贡献是开发了一种加权的最大似然估计器,它在样本复杂度方面实现了接近最优的性能,最多有对数因子 (log^2 (n)),其中 n 是比较的项目数量。通过分析和算法创新的组合实现了这一目标。
Feb, 2024