神经网络能计数数字频率吗?
本文目的是分析神经网络的隐藏层数对网络性能的影响,为了展示这种影响,我们在MNIST数据集上应用了不同层数的神经网络,并观察不同层数和不同迭代次数下ANN精度的变化以进行比较和对比。
Sep, 2018
通过在频域进行学习和频道选择,我们提出了减少冗余和显著信息以提高图像分类精度的学习方法,得出使用该方法的ResNet-50、MobileNetV2和Mask R-CNN在图像分类和实例分割上表现更好的结论。
Feb, 2020
本研究发现,DNN 并不具备通常的数数连通组件的能力,通过提出三种可学习的 ML 特性来解释 DNN 为什么可以解决 特定的计数问题,但不能普遍数数连通组件。
Jan, 2021
本文通过分析神经网络对频率和尺度的敏感性发现,神经网络具有不同频段类别的偏好,并且物体的尺度影响首选频段。为了证实这一假设,我们提出了基于高斯导数的网络体系结构,能够以手动方式从不同尺度上提取特征,提高了在各种数据集上的可比准确性。
Feb, 2023
本文通过对精确定义的数学模型生成的数据进行实证研究,在一维高斯信号去卷积和估计随机灰度圆形图像中圆的半径和位置等简单例子上,通过训练各种网络,发现与传统的基于数学模型的方法相比,无论是从头开始训练还是采用迁移学习或微调,神经网络需要数万个示例。
Mar, 2023
频率分析这一研究领域在理解神经网络中的表示学习机制方面具有重要作用。本研究通过实证调查,扩展了对频率快捷方式的理解,并验证了其在分类任务中的应用,结果显示频率快捷方式是可转移的,且无法完全避免,建议未来的研究应该专注于有效的训练方案以减轻频率快捷方式的学习。
Jul, 2023
本研究探讨对比学习(CL)在抽象实体应用中的潜力,尤其是自然数这一半抽象概念。研究表明,CL在处理训练和测试分布不同时,比监督学习(SL)具有更强的鲁棒性和更好的错误性能。通过实验,可以高精度推测离散数量,显示了CL在抽象概念学习中的实际应用价值。
Aug, 2024
本文探讨了对比学习在抽象概念(如自然数)中的应用,填补了该领域的研究空白。通过引入适当的守恒原则,实验证明对比学习能够在自然数的计数任务中获得高准确度,特别是在训练和测试分布不同的情况下表现出更强的鲁棒性。此研究为未来在更抽象的任务中运用对比学习提供了新的视角和潜力。
Aug, 2024