- 用 Bregman 学习稀疏化 PDE 解数据的降维
我们提出了一种多步算法,通过在编码器 - 解码器网络中引入稀疏性来减少参数的数量和潜在空间的额外压缩。该算法以稀疏初始化网络开始,并使用线性化的 Bregman 迭代进行训练。在训练之后,我们进一步通过使用一种适当的正交分解形式来压缩潜在空 - ICLR非线性模型约简用于算子学习
使用神经网络和核主成分分析(KPCA)结合的高效框架,扩展了基于模型简化和神经网络的 DeepONet,并展示了 KPCA-DeepONet 相对于 POD-DeepONet 的卓越性能。
- 面向多元时间序列异常检测的高效深度自编码器
通过剪枝、量化和深度自编码器压缩方法,本文提出了一种能够在有限时间和内存约束下实现模型大小减小的方法,以便在高度受限的硬件环境中更快速和容易采用的压缩模型,并在多变量异常检测中实现显著的模型压缩比(80% 至 95%)而不显著降低异常检测性 - 基于自编码器的非线性模型降阶技术在算子学习中的泛化误差保证
我们利用自动编码器神经网络 (AENet) 研究模型缩减中的低维非线性结构,通过先学习输入数据的潜在变量,然后学习这些潜在变量到相应输出数据的转换,成功地验证了 AENet 准确学习非线性偏微分方程解算符的能力,并建立了数学和统计估计理论来 - 用于哈密顿系统模型简化的辛自编码器
为了解决大维物理系统不同参数选择下的计算成本过高问题,该研究提出了模型简化和神经网络结构的新方法,其中关键是保存系统的辛结构和利用网络设计中的微分几何结构进行训练,该方法在准确性方面表现显著优于现有设计。
- 随机动力系统模型简化的信息论
基于信息瓶颈的方法能够明确地识别与预测未来相关性最高的变量,为模型简化提供了基础,并可通过解析关系构建可解释的深度学习工具。在天气系统和卫星电影领域验证了该方法的有效性。
- ReLU-FNN 的局部利普希茨常数计算:精确性验证的上界计算
该论文主要研究采用整流线性单元(ReLUs)作为激活函数的前馈神经网络(FNNs)的局部利普希茨常数的计算,介绍了一种基于半定规划问题(SDP)和余问题的计算上界的方法,提出了一种模型简化方法并通过数值实例验证了这些方法的有效性。
- 自编码器为何有效?
深度神经网络自编码器常用于模型简化,在此研究中通过调整网络参数来最小化输入与重构输出之间的差异,以达到恢复输入数据的效果,并证明了该方法的有效性。
- 贝叶斯模型简化的深度神经网络的贝叶斯稀疏化
深度学习的复杂模型限制了其巨大潜力的发挥,需要高效的稀疏化技术。贝叶斯稀疏化是一种关键方法,能够设计出在各种深度学习应用中既计算效率高又性能竞争力强的模型。本研究指出贝叶斯模型简化是一种更高效的模型参数修剪方法,相对于现有的基于随机变分推断 - 正则和非正则哈密顿算符推理
本文提出了一种非侵入性和结构保持的模型简化方法,基于算子推断的思想,利用系统哈密顿量的灰盒知识和快照数据进行直接线性求解,适用于经典和非经典哈密顿系统的简化,并在多个基于双曲型偏微分方程的实例中验证了该方法提供的准确、稳定的模型简化结果能在 - 利用保证神经网络模型简化进行神经网络控制系统的安全验证
本文提出了一种神经网络模型减缩的方法,通过精确计算模型减缩精度,将减缩后的神经网络控制器替换成封闭回路系统,进而提高安全验证的计算效率,并通过自适应巡航控制系统的案例验证了方法的有效性。
- 神经网络的近似双模拟关系及其在可保证神经网络压缩中的应用
该论文提出了一种基于近似双模拟关系的神经网络模型缩减方法,利用该方法可以量化两个神经网络的输出距离,从而进行神经网络模型缩减并加速神经网络的验证过程。
- 利用双向流形对齐学习可逆嵌入映射
我们提出了一个双向流形对齐(BDMA)算法,通过显式地训练它成为双射,来学习两个流形之间的非线性映射。我们通过针对语言对而不是个别的有向源和目标组合训练模型来演示 BDMA,从而将模型数量减少了 50%。我们表明,在 “正向”(源到目标)方 - AAAI神经常微分方程用于环境水动力学数据驱动的降阶建模
本研究探讨使用神经常微分方程作为一种传播基于简化模型的潜在空间动力学的方法,并与两种传统的非侵入性方法进行比较,发现神经常微分方程提供了一个稳定和准确的演化潜在空间动力学的框架,但为了促进其广泛应用于大型系统,需要加速其训练时间。
- 参数化偏微分方程的模型简化和神经网络
发展了一种数据驱动输入输出图像无限维空间的近似方法,使用了神经网络和深度学习并结合模型缩减的思想,该方法在概念上定义于无限维空间上,并在实践中对计算所需的有限维空间的维度稳健,通过对输入输出映射的一类概率测度的选择,证明了所提出近似方法的收 - 神经网络的活跃子空间:结构分析与通用攻击
本文提出使用主动子空间方法分析神经网络的内部结构和漏洞,利用主动子空间量化中间层的活跃神经元数量并提出序列压缩的新型神经网络 ASNet,同时发现一种能够高概率误分类数据集的通用对抗攻击向量。在 CIFAR-10 数据集上进行的实验表明,A - QGAN: 量化生成对抗网络
本文研究了如何在仿射神经网络中量化生成对抗神经网络并提出了一种基于 EM 算法的 QGAN 方法方法,同时还提出了一种多精度算法,可帮助找到量化 GAN 模型的最佳位数以及相应的结果质量。实验结果表明,QGAN 可将 GAN 量化为 1/2 - 使用深度卷积自编码器对非线性流形上的动态系统进行模型简化
介绍一种新的基于最小残差的方法,通过在时间连续和时间离散水平上使用非线性流形将动力系统投影到上,即流形 Galerkin 投影和流形 Petrov-Galerkin 投影,并提出了一个计算非线性流形的可行方法,该方法基于深度学习中的卷积自编 - ICMLAdam 促进整流神经网络隐式权重稀疏化
本文提出深度神经网络在训练过程中能自动诱导出权重的分组稀疏性,利用此现象我们可以在训练完成之后快速减少模型尺寸,同时不会对模型表现带来太大影响。
- 利用特征映射进行知识蒸馏的图像分类
本文提出了一种名为 KDFM(含有特征映射的知识蒸馏)的方法,通过学习教师网络的功能映射来提高知识蒸馏的有效性,并在实验中得出使用 4 层 CNN 模仿 DenseNet-40 和使用 MobileNet 模仿 DenseNet-100,对