一次性核心集:k - 聚类的情形
提出了一种轻量级 coresets 算法,用于 k-means 聚类和 Bregman 聚类,能同时允许乘性和加性误差,在计算效率和结果集大小方面优于现有方法,并可用于统计 k-means 聚类的计算小型模型的摘要。
Feb, 2017
本文研究 coresets 和机器学习领域中的最新进展,提出了一种理论上可行的框架来创建分类问题的 coresets,应用到了 $k$-means 聚类问题,同时总结了当前在 MLE 混合模型、贝叶斯非参数模型、主成分分析、回归和经验风险最小化等领域中已有的 coreset 构建算法。
Mar, 2017
本文主要介绍了几种几何数据压缩的技术,即将大数据集压缩为概要信息,以在更短的时间内运行算法并近似完整数据集的结果。其中包括 shape-fitting、density estimation、高维向量、高维点集 / 矩阵和聚类等五种核心集合和草图的类型。
Jan, 2016
本文研究公平聚类问题,提出一种利用核心集合来显著减小输入数据规模的算法,证明了核心集合的可组合性,提出了 Lloyd 算法的变体,并将其扩展为公平 k-means ++ 聚类算法,实现了这些算法并提供了经验证据,表明我们的方法得以规模化运行。
Dec, 2018
研究在大型数据集上 k-means 和 k-median 聚类的理论和实际运行限制,通过快速压缩数据并在压缩表示上进行聚类,提供了有效聚类的理论和实践蓝图。
Apr, 2024
本文介绍了一种新的 coresets 框架,可以在欧氏空间、翻倍度量、无小度量和一般的度量情况下同时改善 k - 中位数和 k - 均值聚类等问题的最优解的界限。
Apr, 2021
该研究通过对 coresets 的研究,建立了一个统计框架,分析了非参数密度估计等任务的最小最大估计率,并表明实际 coreset 核密度估计器在很大程度上是接近最小最大优化的。
Nov, 2020
本研究提出一种称为 coresets 的降维方法,可用于在高维欧几里得空间中降低大量数据点的大小,适用于多种数据分析技术,包括 k-means 聚类、主成分分析和子空间聚类,并允许流式处理或分布式算法,其大小与输入点的数量和维度无关。
Jul, 2018
该文提出了一种叫做 “通用弱核心集” 的概念,用于约束聚类设置中,与最近的约束设置下核心集构建结合使用,能够给出更大的数据压缩、概念上更简单,适用于广泛的约束 $k$- 中位数和 $k$- 均值问题。
May, 2023
本文提出了一种公平的聚类方法,可以对数据点进行聚类而确保每个聚类中各类别比例的公平分配。该方法采用了基于新构建的核心集的方法,并使用该方法高效处理类别复杂、性别等多个敏感类型的数据,并在成人 (Adult)、银行 (Bank)、糖尿病 (Diabetes) 和运动员 (Athlete) 数据集上得到了实证结果。
Jun, 2019