深度网络上强制加入硬限制:承诺与局限
提出了一种框架,允许在广泛使用的深度神经网络中严格执行约束条件,其中约束通过限制 DNN 参数的子流形来确切满足。该框架的一个示例是将卷积神经网络(CNN)的滤波器限制为小波,并将这些小波网络应用于医学领域的轮廓预测任务。
Feb, 2023
提出了一种在神经网络输出值上施加硬凸约束的计算上简单的方法,通过附加神经网络层来实现对隐藏参数向量映射到约束集合中的点,并简单地扩展到对输入进行约束的情况,展示了如何将不同类型的约束集成到提出的方法中,包括线性、二次、相等和动态约束以及边界的约束。算法的重要特点是其计算简单性。
Jul, 2023
本研究介绍了一种将非线性分析约束条件通过网络架构或损失函数施加在神经网络上的方法,应用于气候建模中的混合过程,可以确保精度且不影响性能,同时也减少与约束条件相关的输出错误。
Sep, 2019
通过使用 Mixture-of-Experts (MoE),我们开发了一种可扩展的方法来强制执行硬物理约束,以增强神经 PDE 求解器在预测挑战性非线性系统动力学方面的准确性,并改善训练稳定性以及在训练和推断阶段所需的计算时间。
Feb, 2024
本文提出了一种基于 Meshless 插值和谱协方差方法的约束神经场方法,针对深度神经网络优化问题中缺乏硬性约束优化的现状,其约束可以具体指定为应用于神经场及其导数的线性算子,并展示了其在许多实际应用中的实验效果和高效的模型约束陈述框架。
Jun, 2023
通过改进当前的物理信息神经网络深度学习策略,本研究提出了不需要学习初始条件且以精确预测解决方案为代表的方法。此外,该方法确保当多次应用 DeepONet 以进行解决方案的时间步进时,得到的函数是连续的。
Sep, 2023
本文提出一种基于不等式约束的 CNN 弱监督分割方法,通过引入可微分约束惩罚项,使训练过程中的非标注数据指导网络的学习,经实验证明该方法相比于先前研究的 Lagrangian 方法能够更加优化,并降低了训练过程的计算复杂度。
May, 2018
本文提出了一种方法来在神经网络激活中施加均匀的线性不等式约束,以结合数据驱动的训练方法和先前任务的先验知识。该算法可在测试时间内显著加速推理速度,并避免了在每个训练步骤中求解优化问题或手动调整超参数。该方法通过约束变分自编码器进行实验演示。
Feb, 2019
我们对神经网络模型学习算法进行了分类,并提出了一种新的算法来整合主任务信息和约束注入,同时提出了 $Heta$-score 作为度量主任务度量和约束违规的指标,在自然语言推理、合成传导示例和语义角色标记等自然语言处理任务上探索和揭示了各种算法达到高 $Heta$-scores 的关键因素。
Jun, 2024