本文研究表明,NLU 模型倾向于依赖于快捷特征进行预测,而不是真正理解语言。我们发现 NLU 训练集中的单词可以被建模为长尾分布,进一步提出了一种量化每个训练样例快捷程度的方法,并基于此提出了一个缓解快捷特征对模型训练的影响的框架 LTGR,实验结果表明这种方法可以提高模型对 OOD 数据的泛化能力,同时保持在分布数据上的准确性。
Mar, 2021
本研究提出了一种称为 NPC-LV 的学习框架,它可以使用非监督学习中的生成模型来利用数据分布来构建压缩器,并结合少量标记数据进行分类,能够胜过监督方法和半监督学习方法,用于图像分类。
Jun, 2022
本文提出了 Deep Linear Discriminant Analysis(DeepLDA)方法,通过在深度神经网络中,学习可分离的线性潜在表示以进行分类的降维。作者的目标是最大化特征分布的相似度以推广传统的 LDA 算法,通过三个基准数据集的评估,DeepLDA 在 MNIST 和 CIFAR-10 上得到了竞争性的结果,在 STL-10 上也优于使用分类交叉熵进行训练的网络。
Nov, 2015
本文提出了两种新的视频分析策略来处理噪声标签问题:一种基于特征的噪声标签检测轻量级通道选择方法,另一种构建干净与噪声实例关系以规范化模型训练的对比策略。实验结果表明,我们的方法在三个基准测试集上都优于现有基线,在 Mini-Kinetics 数据集上通过噪声对称 80%测试,噪声检测 F1-score 的提高率达到了 0.4%,分类准确度提高了 5%以上。
Dec, 2022
该研究提出了一种新的基于自监督深度学习的检测时间序列异常值的方法,该方法通过学习局部变换来提高时间序列异常检测的效果。实验结果表明该方法可应用于多个领域。
Feb, 2022
通过非负对比学习(NCL),我们提出非负矩阵分解(NMF)的新应用,旨在提取可解释的特征,在数学上与 NMF 目标保持一致,不仅在特征区分度、特征选择方面表现出众,而且在下游分类任务中表现优异。
Mar, 2024
本文提出了一种新的自监督学习方法 CLD,通过交叉等级判别来发现和整合实例相似性,显著改善对高度相关,长尾分布和平衡数据集的自监督学习,并在许多基准测试中取得了新的最佳性能。
Aug, 2020
基于已有研究的基础上,本文提出了一种标记伪神经切向核方法(lpNTK),该方法在测量样本之间的相互作用时考虑了标签信息,并证明了 lpNTK 在一定假设条件下以 Frobenius 范数为标准渐近接近于经验神经切向核。同时,本文还阐述了 lpNTK 在理解学习现象、特别是样本学习难度和遗忘事件方面的作用,此外还表明使用 lpNTK 识别和删除对神经网络的泛化性能没有负面影响。
Jan, 2024
简介:本文提出了 LASSO-Clip-EN(LCEN)算法用于创建非线性的可解释机器学习模型。LCEN 在人工和实证数据集上进行了测试,比其他常用的架构创建出更准确、更稀疏的模型。LCEN 对噪声、多重共线性、数据稀缺和超参数方差等多种问题具有鲁棒性。LCEN 还能够从实证数据中重新发现多个物理定律,并在没有已知物理定律的情况下取得比许多密集和稀疏方法更好的结果。
Feb, 2024
本文介绍了一个基于大偏差原理的新型人工神经网络训练方法 LAD Improved Iterative Training,该方法使用 Modified Training Sample(MTS)作为训练样本,采用异常得分为基础的采样策略,能更加有效地学习高维数据特征和模式,与传统批处理方式相比分类性能更优。
Mar, 2023