- 基于硅微环共振器非线性特性的时滞储层计算的存储容量分析
通过使用硅微环共振器中的非线性效应,如自由载流子色散和热光效应,将信息映射到更高的维度空间,并通过添加外部波导实现具有增强记忆的延时非线性光子储存器 (TDRC)。在 TDRC 中,非线性效应取决于物理特性,而非线性动态的正确量化有利于实现 - 使用处理内存中的哈希嵌入加速技术
HEAM 是一种异构内存架构,通过整合 3D 堆叠 DRAM 和 DIMM 来加速个性化推荐系统中的组合嵌入运算,有效减少了银行访问、提高了访问效率,并在总体吞吐量上实现了 6.3 倍的加速和 58.9% 的能源节省。
- 使用动态结构改进高效持续学习的尖峰神经网络发展
我们提出了一种动态结构发展的脉冲神经网络 (DSD-SNN) 模型,通过动态地分配和增长神经元,并删除多余神经元,提高内存容量,减少计算开销,实现高效自适应的连续学习。我们的模型在多类增量学习和任务增量学习方面验证了其有效性,显著提升性能、 - 具有平滑激活函数的两层神经网络的内存容量
通过计算雅可比矩阵中涉及亏格阵幂和 Khati-Rao 乘积的矩阵的秩,我们确定了具有 m 个隐藏神经元和输入维度 d(即,md+m 个可训练参数)的双层神经网络的记忆容量下界为 md/2,并以大约 2 倍的优势进行了最优性分析。
- Transformers 在强化学习任务中的优势:将记忆与信用分配解耦
通过对记忆长度和信用分配长度的定义,并设计简单可配置的任务来衡量这些不同的量,我们的实证结果揭示了 Transformers 可以增强 RL 算法的记忆能力,可以扩展到需要记住 1500 个步骤之前观察的任务,但 Transformers - 循环神经网络的记忆:我们计算得正确吗?
探讨了循环神经网络的记忆容量问题,对于线性回声状态网络,提出了通过利用记忆容量对输入掩码矩阵具有中性的结果,利用鲁棒的数值方法解决了记忆的不准确性。
- ICLR自适应饱和循环神经网络:用更少的不稳定性记住更多
本文研究借助正交参数化技术解决循环神经网络中的梯度弥散问题,提出了一种 Adaptive-Saturated RNNs (ASRNN) 变种,它动态调整饱和度水平,融合传统循环神经网络的高内存容量与正交循环神经网络的稳定性。实验结果表明,A - 脉冲神经网络中的传播延迟学习
本文探索了一种新的局部学习规则,该规则适用于脉冲神经网络,其中脉冲传播时间会发生经验依存性的可塑性更改,通过实现分类精度的提高和记忆能力的扩展,证明了该方法的潜力。
- MM在线凸优化算法(无内存限制)
本文提出了一个新的在线凸优化框架,能够利用过去的决策历史对当前损失进行建模,并引入了 “p 有效内存容量” 来量化过去决策对当前损失的最大影响。在此框架下,证明了一些政策遗憾的较好上界,并展示了该框架对于各种在线学习任务的适用性。
- ACL无穷记忆 Transformer
本文提出了一种无限长期记忆的 Transformer 神经网络,使用连续空间的注意机制来处理过长的信息序列,实现了对长序列的信息保持和处理。
- 深度时间延迟库隆算法:动态和存储容量
使用深度时滞水库计算的方法,通过分析条件 Lyapunov 指数和系统到分岔点的距离,调节线性和非线性记忆容量的分布,得出了高非线性或长时间线性记忆容量的系统设计。
- Facebook 数据中心中的深度学习培训:大规模上下文系统设计
本文介绍了 Facebook 在机器学习中使用的大规模推荐模型 (DLRMs),探讨了在模型规模和复杂性不断增加时,如何高效地扩展训练。为了解决这个问题,Facebook 设计了 Zion 平台,作为下一代大内存训练平台,由 CPU 和加速 - 量子神经网络的容量
通过解析量子神经网络的存储容量 (C),研究其表达能力和参数化方式,我们发现,使用经典方式参数化的 QNN 与经典 NN 相比,在存储容量上没有优势;但使用量子状态参数化的 QNN 可以有指数级的存储容量,并提供了数值实验和理论结果。
- ICML深度回声状态网络的记忆容量分析
本文研究了一种新型深度 ESN,包括并行深度 ESN 和级联深度 ESN,分析了它们的存储容量和预测准确度,并发现并行深度 ESN 比传统浅层 ESN 实现了更好的预测效果,而级联深度 ESN 存储容量小于传统浅层 ESN,但是能提高整体预 - NIPS记忆镜头:一个代理程序使用了多少内存?
提出一种新方法来研究强化学习策略所使用的内部记忆,通过估计行为历史与代理人当前动作之间的互信息来估计相关的过去信息量,并在被动设置下进行这种估计。此外,通过显示它产生了一个实现无关的最小内存容量下界,为我们的方法提供了理论上的理由。作者对对