通过更好的表示实现对抗训练有助于迁移学习
本文通过研究发现,针对新领域的迁移学习中,对于只有有限数据的情况下,通过对抗训练的模型相对于非对抗训练的模型具有更好的迁移性能。同时,对抗训练可以使学习到的表示偏向于保留形状而不是纹理,这影响了源模型的可迁移性,并且使用影响函数的方法发现迁移的对抗训练模型包含更多的人类可识别的语义信息,这至少部分解释了为什么对抗训练模型更实用。
Jul, 2020
本文分析传递学习(knowledge transferability)与对抗可迁移性(adversarial transferability)之间的相互作用,并提出两种实用的对抗可迁移性度量,通过广泛的实验证明了对抗可迁移性与知识可迁移性之间的正相关性,为未来有效的知识转移学习和对抗迁移性分析提供了启示。
Jun, 2020
该研究论文介绍了一种名为 Selective Adversarial Network (SAN) 的选择性对抗网络,用于解决部分转移学习(partial transfer learning)问题,从而实现大数据时代的分类和特征转移学习优化。实验结果显示,我们的模型优于多个基准数据集上的现有最先进结果。
Jul, 2017
本文研究如何在数据稀缺或者训练成本较高的情况下,通过对源模型的继承和微调,使得目标模型不仅精度高,而且对抗攻击具有良好的鲁棒性,其中运用到 Transfer Learning, Neural Network Classifiers,Robustness,Lifelong Learning 和 Generalization 等关键词。
May, 2019
本文提出了一种新的领域适应的表示学习方法,使用神经网络架构从源域的有标签数据和目标域的无标签数据中推断出训练的特征,该方法增加了标准层和一个新的反向梯度层,可以在文本情感分析、图像分类以及人员重新识别等任务中有效实现领域适应。
May, 2015
本文旨在探讨用表示学习降低预测结果中的不公平因素。针对第三方使用这些学习到的表示却又不明确目标的情境,我们提出了对抗性表示学习方法来确保使用方的公平性。我们将群体公平(人口平等、平等赔率和平等机会)与不同的对抗目标联系起来,通过最坏情况的理论保证和实验验证,我们证明了对该目标的选择对于公平预测是至关重要的。此外,我们还展示了公平迁移学习的首个深入实验演示,并经验证明了我们学习到的表示在保持实用性的同时对新任务具有公平预测的能力,这是公平表示学习的重要目标。
Feb, 2018
大规模深度学习中,预训练生成了下游任务的通用表示。现有文献经验性地观察到下游任务可以继承预训练模型的对抗鲁棒性,并提出了理论上的证明以揭示特征净化在预训练模型和下游任务之间的连接,在两层神经网络中展现出重要作用。通过对抗训练,每个隐藏节点趋向于选择一个或少量特征,而未经对抗训练的隐藏节点容易受到攻击。这一观察结果适用于监督预训练和对比学习,并且通过净化节点,清洁训练就足以实现下游任务的对抗鲁棒性。
Jan, 2024
通过细调超参数,生成不同的批次对抗性样本并取平均的方法可以提高对抗性迁移性,并且相比传统方法没有额外的生成时间和计算成本,与现有的基于迁移的方法相结合可以生成更具迁移性的对抗性样本,通过在 ImageNet 数据集上进行的大量实验表明,我们的方法比现有的攻击方法有更高的攻击成功率。
Feb, 2024
通过对拟合平滑度和梯度相似度进行权衡,我们揭示了对抗传递的调节机制,发现数据分布移位导致的梯度相似度降级说明了拟合平滑度与梯度相似度之间的贸易协定,并提出了一种更好的替代品构建方法,旨在优化拟合平滑度和梯度相似度,通过数据增强、梯度正则化等技术进行验证。
Jul, 2023
本文提出了一种新颖的信息论方法,以改善基于半监督学习的转移学习中深度神经网络的传递性,特别是在源数据集和目标数据集之间存在分歧的情况下,通过引入 Mutual Information 和 Lautum Information 来 应用于目标数据集的正则化项
Jun, 2023