介绍了一种在保证模型精度的情况下,同时降低深度学习中推理和训练成本,并通过基于神经网络条件数的模型稳健性表明低秩矩阵分解(low-rank matrix factorizations)容易导致模型鲁棒性的问题,提出了一种基于鲁棒低秩矩阵训练的算法,通过施加近似正交约束,保证了低秩表示与近似完整的模型之间精度。通过实验证明降低深度学习模型中推理和训练成本的同时,提高了模型的鲁棒性。
Jun, 2023
通过投影训练模型到最稳健的特征空间,降低对非稳健方向的敌对攻击的脆弱性,提出一种容易与任何(稳健)训练过程集成的新颖自适应测试防御策略。
Jul, 2023
探究 Tensor Singular Value Decomposition (t-SVD) 理论上对于 Neural Networks with t-product layers (t-NNs) 的影响,研究发现使用 exact transformed low-rank parameterization 的 t-NNs 能够提高其对于 adversarial generalization 的性能,并且即使 t-NNs 很少有完全 transformed low-rank weights,也可以通过 gradient flow (GF) 的 adversarial training 得到类似的效果,表明 transformed low-rank parameterization 在一定条件下可以提高 t-NNs 的鲁棒泛化性能。
Mar, 2023
基于训练后的秩选择方法 Rank-Tuning,结合训练适应性,我们的方法能够实现高压缩率而无性能损失或性能损失较小,数值实验结果表明,我们可以将循环神经网络压缩至最多 14 倍,最多相对性能降低 1.4%。
Oct, 2023
本研究提出了一种新的 CP 张量分解方法,使用了随机投影算法降低了问题难度并在模拟和真实数据集上得到了更好的表现。
Jan, 2015
本研究提出了一个新的模型以及应用交替最小化算法和两种自适应秩调整策略同时对低秩张量进行低秩矩阵分解,结果表明,该算法可以在比其他方法更少的数据采样下恢复各种合成低秩张量,而且实际数据的测试结果也有类似优势。
Dec, 2013
本文考虑在通过随机投影压缩的数据上准确高效地计算低秩矩阵或张量分解的问题。我们研究了在压缩域内执行分解并从恢复 (压缩) 因子中重构原始高维因子的方法,在矩阵和张量设置中,我们建立了这种自然方法能够证明恢复原始因子的条件。我们对合成数据进行了实验,证实了压缩因式分解在真实世界的基因表达和脑电时间序列数据集中的实际适用性,并支持这些理论结果。
Jun, 2017
本文提出两种针对深度排名系统的攻击,即候选攻击和查询攻击,还提出了一种反折叠三元组防御来提高排序模型的鲁棒性,并通过提出的经验鲁棒性评分来全面度量排名模型的鲁棒性,实验结果表明,我们的防御措施可以显著提高排名系统的鲁棒性,并同时缓解各种攻击。
Jun, 2021
综述了最近几年针对 NLP 中深度神经网络面对对抗干扰的鲁棒性不足和易受攻击的挑战,提出了一种新的分类方法,介绍了不同的对抗防御方法和其在训练中作为正则化机制的应用,并指出了深度神经网络的脆弱性和对其进行防御面临的挑战。
Mar, 2022
本文提出了两种针对深度排序系统的攻击方法,即候选攻击和查询攻击,并且也提出了一种防御方法来提高排序系统的鲁棒性,我们的攻击和防御方法在 MNIST、Fashion-MNIST 和 Stanford-Online-Products 数据集中进行了评估。实验结果表明,我们的攻击可以有效地攻击典型的深度排序系统,同时使用我们的防御方法可以中等程度地提高系统的鲁棒性,此外,我们的攻击展示了可以实现黑盒攻击的可能性。
Feb, 2020