关键词intra-class compactness
搜索结果 - 7
- 分类的大边缘判别损失
这篇论文介绍了一种在深度学习背景下具有较大边界的新型判别性损失函数,通过提高神经网络的判别能力,即类内紧凑性和类间可分性,来优化特征空间,同时通过数学分析关系、设计策略和研究泛化误差,提高模型的测试准确性。
- 噪声角度添加混合损失与混合检测的声音异常检测
通过学习正常操作声音的特征并感知其偏差,无监督异常声音检测(ASD)旨在识别异常声音。近期研究集中于自监督任务,利用正常数据的分类,而先进模型的研究表明,通过表示学习及产生紧凑的类内和互不重叠的类间分布,保证异常数据的表示空间是重要的。然而 - CVPR用正多面体网络实现最紧凑和分离的特征
在这项工作中,我们通过将分类器的参数设置为不可训练(即固定),展示出如何从使用 Softmax loss 训练的 CNN 中提取最大类间可分性和最大类内紧凑性的特征。我们的方法统一和泛化了两个不同类别的方法,即由 Center Loss 引 - ICLR学习最大边界
本文提出采用最大化间隔损失的优化目标,定义类间隔与样本间隔,推导出广义的间隔 softmax 损失,并在此基础上设计出新工具,即样本间隔正则化、适用于类均衡情形的最大间隔 softmax 损失和适用于类不平衡情形的零中心正则化。实验结果表明 - CVPRFSCE: 基于对比度提案编码的小样本目标检测
本文提出了一种基于监督对比学习的小样本目标检测算法,利用提出的物体与背景对比度来学习物体表示,并通过增强对比密度来提高检测性能,实现了对检测目标的更准确定位和识别。
- 通过结构条件对抗学习进行无监督域自适应图像分类
提出了一种基于结构条件对抗学习方案(SCAL),该方案能够在域分布对齐期间保留内部类紧密性。结合本地结构作为结构感知条件,通过结构条件对抗学习管道实现。实验结果证明了该方案在无监督领域适应方案中的有效性。
- G-softmax: 提高特征内类紧致性和类间可分性
本文研究了卷积神经网络学习特征时的类内紧密度和类间可分性,并提出一种简单易实现的基于高斯的 softmax 方法,有效提高了类内紧密度和类间可分性,在多个分类数据集上都表现优异,并发现高的类内紧密度和类间可分性与 MS COCO 和 NUS