重新考虑编码器 - 解码器中的扰动以实现快速训练
通过加入输入扰动以模拟推理时间预测误差,本文提出了一种简单而有效的训练正则化方法,以减轻 Denoising Diffusion Probabilistic Models 模型中的错误积累现象,并在维持较高的采样质量的同时,显著减少训练和推理时间。
Jan, 2023
通过计算基于 l2,1 范数的优化算法,我们在 CNN + RNN 网络中使用传播来计算视频的稀疏对抗扰动,即只需扰动视频中的一帧,即可使 DNN 的错判率可达 59.7%。
Mar, 2018
本文介绍了使用随机扰动来对抗深度学习模型的攻击的解决方案,包括随机拼写纠正、随机同义词替换和随机删除单词等防御方法。这些方法成功地将被攻击的模型的准确性恢复到攻击之前的水平。
Feb, 2022
通过对 encoder-decoder 系统的行为进行修改,本研究提出了一个简单且轻量级的方法来控制特定属性的行为。在改进了 COMET 在机器翻译和 Whisper 基础模型在语音识别中的性能的基础上,实验结果显示了持续不断的改进。
May, 2024
本文研究基于深度学习的文本分类模型(CNN、LSTM 和 BERT)在面对有意义但与最终性能无关的输入扰动(如标点符号和停用词)时的表现,发现包括 BERT 在内的这类模型都很敏感,特别是对于输入扰动的删除尤其受影响。
Jan, 2022
本研究旨在通过从数据中学习扰动集,以便对鲁棒性进行训练和评估,从而缩小实际世界中的扰动和通常研究的更窄定义的集合之间的差距。使用条件生成器定义扰动集,并使用理想特性来衡量学习的扰动集的质量,理论上证明了条件变分自动编码器自然满足这些标准。最后,使用学习的扰动集来训练模型,使其对敌对图像污染和敌对光线变化具有实证和可证明的鲁棒性,并提高非敌对数据的泛化。
Jul, 2020
提出一种新的 seq2seq 模型对抗攻击的评估框架,并证明现有方法普遍无法保持语义的等价性。同时,发现在对模型进行对抗性训练时,使用保持意义的攻击可以提高模型的鲁棒性而不影响测试性能。
Mar, 2019
本篇论文探究了卷积神经网络中的一种新行为:通过结构化扰动输入,预训练的 CNN 可以改善其预测性能,这种扰动被称为 Guided Perturbations。实验结果表明,这种方法可以提高现有方法在语义分割和场景标注任务上的性能,并且可以应用于 MNIST 和 CIFAR10 等数据集上的分类任务。
Mar, 2017
本文提出了周期性扰动深度神经网络权重的方法,尤其是在深度自动编码器的自监督预训练阶段。该方法在表格数据分类任务中比 dropout 方法表现更好,并可用于压缩深度预训练模型。此外,本文揭示了深度模型在表格数据集中的成功归因于真实世界数据集中必然存在的相关变量。
May, 2022
该研究提出了一种双重解码策略使得计划采样技术可以应用于 Transformer 模型,以解决序列生成中出现的曝光偏置问题,该技术可大幅提高模型的性能,并表明其具有进一步探索的潜力。
Jun, 2019