- 基于 t - 位置 - 比例分布和最近邻分类器的癫痫信号尖波检测研究
基于 k 最近邻分类和 t 位置尺度统计表示,我们在真实数据集上提出了一种用于检测尖波的癫痫脑电信号的模式分类方法,并在分类准确率、敏感性和特异性方面对性能进行评估。
- 基于 Top-k 邻居的图像到文本提示的 CLIP 模型
以生成模型为基础,提出了一种用于图像生成提示的低成本方法,在无需大量标注数据的情况下生成文本提示,并将方法划分为在线和离线两个阶段。所提出的系统由离线任务和在线任务两个主要部分组成,具有最高的度量值 0.612,比 Clip、Clip + - 可扩展且无超参数的非参数转移适应与条件采样
我们提出了一种新的非参数方法来进行协变量转移适应,避免了权重估计和超参数调整,并实现了样本规模几乎线性的运行时间,同时保持了与参数方法相同的收敛速度。
- 信息修改的 K 最近邻算法
提出了一种新的分类方法,名为信息修正 KNN(IMKNN),通过引入互信息(MI)来提高 K - 最近邻算法(KNN)的性能,并从合作博弈论中的 Shapley 值概念汲取灵感,以优化价值分配。实验结果表明,在不同数据集和评判标准下,IMK - 论检索增强和语言模型训练的局限性
这项研究探讨了将 kNN 检索应用于 GPT-2 117M 等传统语言模型中,以提高性能,证实了通过这种方法可以降低困惑度,并解释了这一现象的潜在原因。
- 证明 KNN 在数据集偏见存在下的公正性
我们提出了一种方法,用于证明广泛使用的监督学习算法 k 最近邻(KNN)的分类结果的公平性,假设训练数据可能存在由于对受保护的少数群体的样本进行系统性错误标记而导致的历史偏差。首次基于个体公平性、ε- 公平性和标签翻转公平性三个公平定义的 - KNN 数据毒化鲁棒性的系统化测试
提出了一种基于系统化测试的方法来证明和证伪 k - 最近邻(KNN)算法的数据污染鲁棒性,该方法在抽象域中进行超逼近分析,缩小搜索空间,在具体域中进行系统化测试,查找实际违规情况,并显著优于现有技术。
- 仅使用最近邻实现语音转换
本文提出了一种基于 k 邻近算法的任意声音转换方法(kNN-VC),并通过客观及主观评估显示其声音相似度较高,同时具有与现有方法相当的可理解性分数,可用于音频合成。
- RT Cores 加速无限制邻居搜索 (RT-kNNS Unbound)
在此研究中,我们提出了 TrueKNN,这是第一种无界 RT 加速邻近搜索。TrueKNN 采用递增策略,在搜索空间逐步增加直到所有点都找到其 K 个邻居。我们发现,这种方法比现有方法快数个数量级,甚至可以用于加速固定半径邻近搜索。
- OFTER:一种用于时间序列预测的在线流水线
OFTER 是一种面向中等规模多元时间序列的时间序列预测流水线,具有解释性输出,使用了 k 最近邻和广义回归神经网络的非参数模型,以及一种基于加权范数的降维组件。该方法能够应用于低信噪比环境,并且能够优于多种基线模型。
- 用最近邻算法进行中文拼写检查
本篇论文介绍了一种新的中文拼写检查方法 InfoKNN-CSC,通过线性插值标准 CSC 模型和 kNN 模型,详细考虑了令牌和上下文的音、形、义信息,并且基于 n-gram 值和输入执行了重新排序方法。针对 SIGHAN 基准测试,实验结 - 评估 k-NN 在带概念漂移的数据流分类中的应用
研究比较不同算法对数据流分类的表现,提出 k-Nearest Neighbors 作为一种应对 concept drift 的可靠算法,并探讨了其时间复杂度和需要调整的参数 k 和 w。通过对比实验表明,k-NN 是一种值得采用的算法,能够 - 一种基于幂平均的新近邻算法
该研究提出了一种基于 K 最近邻算法的新分类器 (PMM-KNN),使用 Power Muirhead Mean 算子计算每个类别的局部平均值,以克服数据集中存在的异常值、数据量小或不平衡等问题,并在三个最先进的分类方法中表现出色。
- 使用模糊超盒的动态集成选择
本研究提出一种基于模糊超立方体的动态集成选择方法,并将被错误分类的样本用于分类器的能力估计,实验结果表明该方法分类准确性高且计算复杂度低。
- ICMLDNNR: 差分最邻近回归
本研究提出一种名为 Differential Nearest Neighbors Regression (DNNR) 的新方法,通过在训练期间估计局部梯度并在推断期间使用估计的梯度执行 n 阶泰勒逼近。在超过 250 个数据集的大规模评估中 - 利用视觉建模和显著性分析预测和解释移动 UI 的可点击性
本文运用基于深度学习的方法,能够仅基于像素预测移动 UI 截屏中被用户感知为可点击的元素,并运用 ML 可解释性技术解释模型输出结果,其中采用 XRAI 技术突出显示对所选区域的可点击性预测影响最强烈的截屏区域,采用 k - 最近邻方法表示 - 通过记忆推理:最近邻居知识图嵌入
本文提出了通过预训练语言模型和 k 近邻的知识图谱嵌入新方法 kNN-KGE,使得 rare 或 emerging entities 更容易被显式地存储,而非隐式存在于模型参数中,实验证明该方法可提高归纳式和传导式链接预测结果,并在只有很少 - 小样本学习中小于 1 次学习:从 M<N 个样本中学习 N 类
研究深度神经网络在小数据集训练下的 few-shot learning 问题,提出 soft-label generalization of k-Nearest Neighbors 分类器,探索 decision landscapes 并研 - 为下一篮推荐建模个性化物品频率信息
通过对真实数据的分析,我们发现个性化商品频率(PIF)信息对于 Next-basket recommendation(NBR)至关重要,因此我们提出了一种基于最近邻的简单方法,可以直接利用这些关键信号,并通过四个公共真实数据集的评估证明这种 - 带有最优传输的可微 Top-k 操作符
研究了 top-k 运算在使用算法实现后无法通过梯度下降算法从端到端训练的问题,提出了基于最优输运的平滑近似 SOFT top-k operator,并在 k 最近邻居和 Beam Search 算法中应用,改善了性能。