- 3D - 属性:DPO 的挑战和前进路径
通过对 Direct Preference Optimization(DPO)的实证研究和与 RLHF-PPO 的系统比较,我们发现 DPO 的三个学习结果特征,即被拒绝回应的概率剧烈下降、LLM 的退化以及对未见回应的扩散效应。在此基础上 - 对抗性强化学习中的错误最小化的概率视角
深度强化学习中对抗性噪声的解决方法,包括使用正则化方法和引入 Adversarial Counterfactual Error 目标来提高鲁棒性。实证结果表明该方法在解决对抗 RL 问题上优于当前最先进的方法。
- Lai Loss:一种融合正则化的新型损失函数
在机器学习领域,传统的正则化方法通常直接将正则化项添加到损失函数中。本文引入了 “Lai 损失”,一种新颖的损失设计,通过直观的几何思想将正则化项(梯度分量)整合到传统的损失函数中。这种设计通过损失函数有效地惩罚梯度向量,有效控制模型的平滑 - 基于 $f$- 散度和 $α$-Rényi 散度的鲁棒半监督学习
研究了适用于半监督学习中自训练方法的一系列经验风险函数和正则化方法,这些方法受到各种差异度量的启示。通过对差异度量理论基础的启发,即差异度量和 Rényi 差异度量,我们还提供了有益的见解,以增强对我们的经验风险函数和正则化技术的理解。在伪 - 在数据短缺情况下比较正则化方法对文本分类的有效性:简单和复杂模型的比较
本论文研究了只有少量标记数据可用时,正则化方法对各种分类模型的影响。研究比较了基于词嵌入的简单模型与复杂模型(CNN 和 BiLSTM),在有监督学习中,对抗训练可以进一步正则化模型。在有无标记的数据集时,可以使用半监督学习方法和虚拟对抗训 - 具有随机正则化生物力学平衡的可变形图像配准
这项研究介绍了一种不需要离散化的正则化策略,它在医学图像配准中保留了物理上激励的优势,同时与当前的配准框架兼容,并在合成和真实数据集中表现出与当前最先进方法相当的准确性。
- PowMix:多模态情感分析的多功能正则化方法
多模态情感分析中,引入了一种全面的正则化方法 PowMix,通过混合同模态和不同模态的组件,在融合阶段前促进模型性能提升,并且能有效改善基线模型和现有混合方法的性能。
- 逆问题的学习正则化:来自光谱模型的洞见
本文旨在基于理论提供对于反问题的先进学习方法进行研究,探讨正则化方法及其收敛性的广义定义,该定义可以为未来的理论研究铺平道路。在基于先前用于监督学习的简单光谱学习模型的基础上,我们研究了适用于反问题的不同学习范式的关键属性,这些属性可以独立 - 理解还是不理解:在损坏的算法数据集上分解概括和记忆
深度学习中的稳健泛化是一个重大挑战,特别是当可训练参数的数量非常大时。为了应对这一挑战,我们研究了一种可解释模型,通过分析理解广义表示,并从纪念表示中轻松区分出来。通过在模量算术任务上训练两层神经网络来研究该模型。我们证明:网络在记忆损坏标 - 对抗训练线性回归的正则化性质
最新机器学习模型存在脆弱性,而对抗训练是一种有效方法,本研究着重探究线性模型下的脆弱性,并对对抗训练在线性回归和其他正则化方法中的解决方案进行了比较分析。
- 缓解零碎相关性对基于部分的学习的影响
通过创新的正则化方法,本研究指出基于部件的表征可以通过两种方法变得更易解释且泛化能力更强,其中第一种方法通过唯一的部分混合形式将前景和背景信息的生成过程分开,通过弱监督损失对部分施加结构约束,保证前景和背景的部分混合具有软性、与对象无关的掩 - PDL:使用渐进丢弃层对多实例学习进行规范化
本研究提出了一种新的正则化方法,即渐进性丢失层(PDL),旨在解决弱监督学习中过拟合问题,并增强多实例学习模型在发现复杂和有影响力的特征表示方面的能力。通过在多个多实例学习方法中集成 PDL,我们在各种基准数据集上进行了广泛的评估,结果显示 - ICML潜在图像流形的数据表示研究
本文探究了图像流形的曲率,发现卷积神经网络在分类任务中的整体曲率表现具有特殊的特点,即初始速度的加速,接着进入了一个较长的平稳期和之后的再加速。此外,我们发现最后两层图层的曲率缺口与网络的泛化能力有很强的相关性,并观察到常见的正则化方法,如 - 文本分类中误关联的理解和减缓
本文提出一种邻近分析框架,防止深度学习模型在训练集中利用虚假的相关性,通过 NFL 正则化方法来改进鲁棒性,并在两个文本分类任务中进行实验验证,达到了显著的效果提升。
- 神经转换器帧跳过的空白正则化 CTC
本研究提出了两种新的正则化方法,旨在明确鼓励 CTC 中非空白符号的自环,以增加空白符号的比例,从而加速神经转换器的推理,并且实验证明,我们提出的方法可以将神经转换器的帧减少率接近理论边界,提高性能并不损失性能。
- ICML批量强化学习中三种正则化方法的比较与统一
本篇论文研究了在批量强化学习中,如何利用加正则化的方法解决由于样本不足或过于复杂导致的模型准确度不高和性能不佳的问题,并通过实验验证了在相同的加正则化措施下,MDP 结构和数据集中状态 - 动作对的分布如何影响其性能表现。
- ICCV手绘你自己的生成对抗网络
通过 GAN Sketching 方法实现 GAN 模型的简化,即利用一个或若干草图改变 GAN 模型的权重,鼓励模型输出与用户草图匹配,同时保留原始模型的多样性和图像质量,实现了潜空间插值和图像编辑。
- ICCV自我知识蒸馏与渐进式目标细化
该文介绍了一种称为渐进式自我知识蒸馏的有效规则化方法,适用于任何具有硬目标的监督学习任务,可以提高模型的泛化性能和置信度预测,并取得了优于基准的实验结果。
- ICML正则化方法的稳健性和不确定性的实证评估
本文通过对 CIFAR-100 和 ImageNet 上使用现有正则化方法进行的实证评估,指出某些正则化方法可以作为保证深度神经网络(DNN)鲁棒性和不确定性评估的强有力基线方法。
- 标签平滑和 Logit 压缩:对抗训练的替代方案?
通过研究对抗训练提高分类器鲁棒性的机制,本研究表明这些机制可以有效地通过简单的正则化方法(包括标签平滑和对数挤压)及高斯噪声注入来模仿,并且在不使用对抗性示例的情况下,我们能够达到强大的对抗性鲁棒性 -- 通常超过对抗性训练所能达到的水平。