本文提出可微分超几何分布,并利用其优势来显式地学习子集的大小,在弱监督学习和聚类两个应用中超越依赖于次优启发式模型集群大小未知的传统方法。
Mar, 2022
本篇论文提出了一种简单且高效的方法来优化神经网络的超参数,采用无需验证数据的优化目标 —— 边缘似然来实现,将训练数据和神经网络模型分别划分为 $K$ 个数据分片和参数分区,仅在特定的数据分片上关联并优化每个分区,然后将这些分区组合成子网络,通过所定义的子网络的 “训练外样本” 损失作为超参数优化的目标来优化多种不同类型的超参数。最后,该方法特别适用于在联邦学习中优化超参数的情况,其中重新训练和交叉验证尤为具有挑战性。
Apr, 2023
本文提出了一种满足微聚类特性的贝叶斯随机分区模型,并在实验中展示了该模型在实体解析的应用。
Apr, 2020
本研究引入了一种新颖的流程,利用无监督图神经网络来解决图分割问题,并提出了一个专门用于此目的的可微损失函数。对于当前先进技术,我们对度量指标:割边和平衡进行了严格评估,结果表明我们的方法具有竞争力。
Dec, 2023
该论文提出一种基于分区器的生成对抗网络的无监督学习方法,通过将高维空间分解为一组简单的子空间,训练每个子空间对应的生成器,以避免模式崩溃和样本集断裂等训练问题,理论和实验表明,该方法在各种标准基准测试中表现优于其他近期的方法。
Apr, 2021
本研究提出了基于深度学习的 GAP 框架来解决节点分割问题。通过定义不同 iable 损失函数以及利用反向传播来优化网络参数,实现基于图结构的节点分割。相较于传统的分割方法,GAP 不仅更快,并且具有良好的扩展性能力,可适用于不同的图结构,并可推广到未知的图形结构上。研究表明,GAP 能够取得与传统分割方式相媲美的结果。
Mar, 2019
本文提出了一种基于区块大小的统计量,并且采用基于元素的熵的定义来量化其分割信息,并且使用熵聚类算法简化和可视化信息,实验证明这种统计量在实践中非常有用,使用于各种无限混合后验及特征分配数据集。
Oct, 2013
通过将模型划分到多个 GPU 上并生成合成中间标签来训练各个部分,以减少数据通信和保持模型准确性为目标,该研究证实了该方法在减少内存和计算需求的同时实现了类似传统训练方法的测试准确性,从而减轻了训练大型神经网络的资源密集性,为更高效的深度学习模型开发铺平了道路。
Mar, 2024
通过广义化 Gumbel-max 技巧,对子集采样实现连续松弛以提供可重参数梯度,应用于机器学习中的特征选择、深度随机 k 最近邻模型和参数 t-SNE 等任务中,提高了模型性能。
Jan, 2019
该论文提出了一种基于核函数的机器学习算法,可以通过对数据集的分组进行处理,采用独立同分布的样本集作为数据点,利用非参数估计器提取核函数特征从而实现多种分类、回归和异常检测等任务。
Feb, 2012