改进连续多标签学习中的不平衡鲁棒性:双输出尖峰计算机架构 (DOSA)
本文提出了 Deep Over-sampling(DOS)方法,它通过显式的、受监督的表示学习扩展了合成过采样方法,以利用卷积神经网络获取的深度特征空间,并通过 CNN 的训练和更新目标的迭代过程,使嵌入之间的类内方差较小,从而提高了深度表示的判别力。实验证明,DOS 框架不仅能够更好地解决类别不平衡问题,而且在标准平衡环境下还能提高 CNN 的性能。
Apr, 2017
该论文指出样本多样性对于 ODD 检测的关键作用,在此基础上提出一种名为 DOS(多元异常值采样)的采样策略,可以有效地降低平均 FPR95。
Jun, 2023
本文研究了从多标签流数据中进行不断学习的挑战,探讨了在长尾标签分布下灾难性遗忘和少数概念上的破坏性遗忘,提出了一种名为 Partitioning Reservoir Sampling (PRS) 的新抽样策略来防止这种遗忘,并开放了数据集和代码。
Sep, 2020
本研究介绍了跨尺度时空交互信息获取的脉冲神经网络 (Spiking Neural Networks, SNNs)、注意力区域阻塞 (Attention ZoneOut, AZO) 的正则化方法,并验证了这种方法在弥合 SNN 模型与传统人工神经网络模型之间性能差距方面的有效性。
May, 2024
本文提出了一种基于 Distribution-Aware Semantics-Oriented (DASO) Pseudo-label 的伪标签框架,该框架能够减少分类器的偏差预测,特别是在类不平衡和分布不匹配时,能够可靠地提高半监督学习算法的表现。
Jun, 2021
基于大脑启发的自适应神经路径重组的持续学习算法,在增量任务中通过自组织调控网络资源以有效应对多样化的认知任务,表现出卓越的性能、能量消耗和内存容量。具备学习更复杂任务、整合过去学习知识以及自我修复能力的特点。
Sep, 2023
我们提出了一种动态结构发展的脉冲神经网络 (DSD-SNN) 模型,通过动态地分配和增长神经元,并删除多余神经元,提高内存容量,减少计算开销,实现高效自适应的连续学习。我们的模型在多类增量学习和任务增量学习方面验证了其有效性,显著提升性能、学习速度和内存容量,同时在与现有方法的比较中,与基于深度神经网络 (DNNs) 的方法具有可比较的性能,并且明显优于基于脉冲神经网络 (SNNs) 的现有方法的性能。
Aug, 2023
一个主要的挑战是在不平衡的图分类中学习表达图的表达性,并通过在多个尺度 - 子图、图和成对图上超采样得到的图内和图间语义学习达到这一目标。MOSGNN 通过联合优化子图级、图级和成对图级学习任务,学习镶嵌在少数类图中和图之间的鉴别性信息,从而显著优于五种最先进的模型,并提供一个通用框架,在其中可以轻松插入不同的先进的不对称学习损失函数,并获得明显的改进分类性能。
May, 2024
通过引入新的不对称损失 (ASL) 并对正负样本进行不同的操作,实现了动态减小容易的负样本,并去除可能被错误标记的样本,使得多标签数据集像 MS-COCO、Pascal-VOC、NUS-WIDE 和 Open Images 的 mAP 得分更加平衡,达到了最新的表现水平,同时也展示了 ASL 适用于其他任务,如单标签分类和物体检测。
Sep, 2020
本研究提出了使用逆向残差连接、随机 softmax 和混合人工和尖峰神经元激活的算法技术,以提高学习能力,并取得与传统深度学习 / 人工神经网络相媲美的准确性,同时在诸如 CIFAR10、Imagenet 等复杂视觉识别任务上实现了大幅度的能源效率和减少参数开销。
Oct, 2019