提出了离散形态神经网络(DMNN)用于二值图像分析以表示 W 算子并通过机器学习进行估计的经典方法。
Sep, 2023
通过数学形态学(MM)实现全结合卷积神经网络(ConvNets)的二值化,并提出两种新的近似方法以及鲁棒的理论框架来改进其优化。同时,引入正则化损失以提高网络的性能。
Jan, 2024
本文提出了一种将全局结构化计算形式化整合到深度计算架构中的方法,其核心是开发了一种新的基于矩阵变化的 backpropagation 理论和实践,该方法广泛适用于机器学习或计算感知问题,我们在 BSDS 和 MSCOCO 基准测试中执行视觉分割实验,结果表明端到端训练的基于第二阶池化和归一化切割层的深度网络,使用矩阵反向传播优于没有利用全局层的对应网络。
Sep, 2015
本文研究了网络形态学习的问题,提出了基于图形变换的两种原子型形态学习方法,并基于 ResNet 提出了实现方案。
Jan, 2017
本文介绍了网络形态学的定义、方程和算法,讨论了如何实现网络形态的改变,提出了参数化激活函数,实验结果表明这种网络形态的改变方案是有效的。
Mar, 2016
用离散形态神经网络(DMNN)进行二进制图像转换,表示具有特定特性的 W 算子,并通过机器学习来估计它们,同时提出了一种用于学习无限制顺序 DMNN(USDMNN)的算法。
Oct, 2023
这篇文章介绍了关于神经网络的统计理论,从三个角度进行了综述:非参数回归或分类中关于神经网络过度风险的结果,神经网络的训练动力学以及生成模型中的最新理论进展。
论文旨在通过提出基于结构的一阶优化算法和网络集合与个体网络之间的一种新对应关系,发展人工神经网络的学习权优化和泛化理论基础,进而在具有远远更多参数的网络中探索正则化的作用。
Oct, 2022
通过研究使用神经切向核(NTK)优化方法来训练的网络,本文对使用梯度下降训练的网络建立了类似的结果,以扩展逼近结果的平滑性,从而显示了这两种理论的兼容性。
May, 2024
我们介绍了一种高效的机械神经网络 (MNN) 训练方法,该方法通过机械模拟的现场反向传播实现了在 MNN 中获取准确梯度信息的能力,从而成功地训练了 MNN 并实现了高精度的回归和分类任务,同时展示了 MNN 的重训练性和鲁棒性。我们的研究结果为机械机器学习硬件和自主自学材料系统铺平了道路。
Apr, 2024