本文探讨使用韦伯 - 费希纳定律来将其纳入机器学习的损失函数,以提高深度学习网络的性能。
Aug, 2022
本研究旨在探究如何最优地分布受体,提高自主神经系统在不同统计情况下的处理信息的能力,并在视觉系统的基础上解释行为型魏伯 - 费希纳定律。
Jul, 2016
本研究论文重点研究了神经网络中数据尺寸 (n) 对于训练或测试误差的普适性缩放规律,并通过研发最简单的模型来分析学习曲线,探究数据分布是否对于这种规律产生影响。
Feb, 2021
神经网络的表现在训练时间、数据集大小和模型大小上预测性地提高,这一现象被称为神经缩放定律,而计算最优缩放定律则是将性能作为计算单元函数以选择模型大小来报告的;研究表明,神经网络在训练早期以 $1/ extit {width}$ 的速度收敛到无限宽度动力学,但在后期表现为 $ extit {width}^{-c}$ 的速度,其中 $c$ 取决于架构和任务的结构;此外,理论上显示了由于数据的重复重用,训练和测试损失之间的差距可以随时间逐渐增大。
Feb, 2024
通过建立信息论基础,我们研究了神经缩放定律,并揭示了在无限宽度的两层神经网络生成的数据中,数据和模型大小的最佳关系大致呈线性,进一步验证了大规模的实证研究结果。
Jun, 2024
本文研究了神经网络的随机分析,通过解决技术上的一些难点,证明了在大规模网络和大规模随机梯度下降训练迭代的渐近情况下,神经网络参数的经验分布收敛于一个非线性偏微分方程的解,此结果可以被认为是神经网络的大数定律。此外,我们的分析结果发现神经网络的训练参数渐近独立,这被称为 “混沌传播” 性质。
May, 2018
本文通过对自然语言处理任务的实证研究,发现神经比例定律不仅仅用于模型性能的预测,还可用于模型加速开发、优化模型选型以及模型的收敛调试等方面。
Feb, 2022
使用幂律缩放在深度学习中有助于处理当前人工智能应用中的关键挑战,可用于测量训练复杂性和机器学习任务算法的量化层次,并建立数据集大小估计的基准以实现期望的测试准确性。
Nov, 2022
本篇研究介绍一种更严谨的方法来预测深度学习中的规模效益,提供了一种可靠的方法来估计缩放参数并通过发布基准数据集以帮助该领域的研究。
Sep, 2022
本文研究了语言模型性能对交叉熵损失计算的经验性规律,发现损失与模型大小、数据集大小和训练所用计算量呈幂律关系,而网络宽度或深度变化对性能影响较小,最优的计算效率可通过训练大型模型、使用适量数据并在达到最佳性能前停止训练来实现。
Jan, 2020