- 批中批:一种新的对初值扰动和样本选择的对抗训练框架
通过 Batch-in-Batch(BB)训练框架,从初始扰动和样本选择策略两方面提高模型鲁棒性,并通过在多个对抗设置上的实验验证了该框架在三个基准数据集上训练的模型在对抗准确性方面的优越性。
- 跳跃教学:高效稳健的有噪标签学习
抽样选择、标签噪音、模型更新、选择偏差和语义特征空间是此论文的关键词。该论文提出的方法在各种噪声设置中实现了近 2.53 倍的加速,0.46 倍的峰值内存占用,并具有卓越的鲁棒性。
- ACL非监督多模态聚类用于多模态话语中的语义发现
该论文介绍了一种新颖的无监督多模态聚类方法(UMC),它在无监督情景下利用非语言信息来辨识复杂语义,并通过动态选择高质量样本来学习表示,从而在聚类度量方面取得了 2-6%得分的显著提高。
- 通过双流样本蒸馏实现鲁棒性噪声标签学习
通过设计名为 Two-Stream Sample Distillation(TSSD)的简单而有效的样本选择框架,来提取更多高质量具有干净标签的样本,改进网络训练的鲁棒性。实验证明,我们的方法在四个基准数据集上取得了与竞争对手相比的最先进结 - 通过拓扑样本选择缓解图上的标签噪声
我们提出了一种基于拓扑信息的拓扑样本选择方法(TSS),通过利用拓扑信息来提高图中信息样本的选择过程,从而解决在非独立同分布图数据和 GNN 中的样本选择中存在的问题。通过理论证明,我们的方法在清洁目标分布下最小化了预期风险的上界,并在实验 - 通过防止样本选择的偏差来学习不平衡有噪声数据
提出了一种用于处理不平衡数据集中的噪声标签的简单而有效的方法,该方法基于类平衡的样本选择(CBS),结合置信度的样本增强(CSA),利用模型的训练动态纠正噪声样本的标签,并采用一致性正则化来提升模型性能。综合实验结果表明,我们的方法在不平衡 - 理解采样近似损失的训练加速
通过选择具有大梯度 / 损失的样本,可以显著减少训练步骤,本文提出了一种基于贪婪法选择具有大近似损失的样本来降低选择开销,并在训练 BERT 模型上展示了显著的训练时间节约和收敛速度提升。
- 基础模型将聚类作为主动学习的更好初始化
本研究提出了将基础模型与聚类方法相结合,用于选择主动学习初始化样本,实验证明这种方法可以有效地定位信息丰富的初始样本,从而提高模型性能。
- 对抗噪声标签的无偏样本选择
在这篇论文中,我们揭示了现有的样本选择方法在实践中存在的数据和训练偏差问题,并提出了一种鲁棒的网络架构和混合采样策略来解决这些问题,以实现对带有噪声标签的学习任务的准确建模。
- MonoLSS:用于单目 3D 检测的可学习样本选择
通过引入可学习的样本选择 (Learnable Sample Selection, LSS) 模块和 MixUp3D 方法,本文提出了一种名为 MonoLSS 的方法,在无额外数据的情况下,在 KITTI 3D 目标检测基准测试中在 Car - 使用一般替代模型对样本选择进行抵抗标签噪声
利用视觉 - 语言替代模型 CLIP 自动过滤噪声样本,并设计了一种适应性边界损失来规范由 CLIP 引入的选择偏差,从而提供对标签噪声的鲁棒性。在真实和合成噪声数据集上验证了我们提出的方法的有效性。
- 带噪声标签的正则截断 M 估计学习
本文提出了一种新的方法,使用截断的 M 估计器来自适应地选择小损失的样本,并减少噪声标签对其的影响,同时利用丢弃的大损失的样本来帮助泛化,理论上证明了该方法具有容忍标签噪声的特性,经验上,全面的实验结果表明该方法在多种基准模型上表现出色,并 - ICCV迟滞:避免从标错样本中自信学习
提出了一种新的框架 — 后期停止法,通过延长训练过程来利用 DNNs 的内在鲁棒学习能力,逐渐缩小嘈杂数据集并去除高概率错误标记的样本,由此保留了训练集中大部分的清洁困难样本,得到了在标准模拟和真实世界嘈杂数据集上优于现有方法的实验结果。
- 多模态分类的平衡主动学习
本文提出了三个设计均衡的多模式主动学习策略的指导方针,并通过调节模态间的支配度来调节梯度嵌入,从而实现更公平的数据选择,本方法在多种多模态分类任务上表现优异,实现了更平衡的多模态学习。
- 基于噪声率估计的样本选择噪声标签学习
提出一种能够有效提高 SOTA noisy-label learning 方法性能的新噪声标签学习图模型,该模型能够准确估计噪声率并用于训练过程的样本选择阶段。
- 选择可学习的训练样本是 DETR 在拥挤行人检测中所需的全部
通过引入适当的样本选择和可学习样本权重调节,我们提出了一种解决拥挤行人检测中 DETRs 性能问题的方法 SSCP,有效地提高了检测指标,并在不增加推理时间的情况下改进了 Iter Deformable DETR 的性能。
- 适应性阈值和负类引导嘈杂标注的鲁棒性面部表情识别
本研究提出了一种动态自适应阈值的方法来解决面部表情识别中存在的不准确注释的问题,该方法通过样本选择和负类一致性引导模型学习,以获得比现有基线方法更好的性能。
- 如何为文本数据增广选择 “好” 的样本
本文提出了一种基于数据增强的自训练样本选择框架,使用熵和模型预测作为选择器,结合单词重叠和语义相似性来筛选高质量的样本。实验结果表明该框架是有效和简单的。
- AAAI邻域正则化自训练在少标签学习中的应用
本文提出了一种利用相似标签样本选择的自训练深度神经网络的方法,可有效降低错误伪标签产生的噪声影响,并均衡自训练过程性能提高和时间效率优化的关系。
- 大语言模型的选择碰撞器偏差
本文旨在探讨样本选择所导致的碰撞偏差对大型语言模型的影响,描述了一种利用由此产生的错误相关性的方法来确定模型对其预测存在不确定性的不确定度度量,并提出了人类不确定性匹配的不确定度度量,并在网络上提供演示。