关键词low-rank matrix factorizations
搜索结果 - 2
- 通过近似正交约束的鲁棒低秩训练
介绍了一种在保证模型精度的情况下,同时降低深度学习中推理和训练成本,并通过基于神经网络条件数的模型稳健性表明低秩矩阵分解(low-rank matrix factorizations)容易导致模型鲁棒性的问题,提出了一种基于鲁棒低秩矩阵训练 - ICML压缩因式分解:快速而准确地低秩分解压缩感知数据
本文考虑在通过随机投影压缩的数据上准确高效地计算低秩矩阵或张量分解的问题。我们研究了在压缩域内执行分解并从恢复 (压缩) 因子中重构原始高维因子的方法,在矩阵和张量设置中,我们建立了这种自然方法能够证明恢复原始因子的条件。我们对合成数据进行