关键词associative memory model
搜索结果 - 3
- LLM 的潜在概念关联和转换器中的联想记忆
大型语言模型具有存储和提取事实的能力,并且可以通过改变上下文来操纵提取事实的能力,揭示出它们可能像联想记忆模型一样行为,其中上下文中的某些令牌作为提取事实的线索。我们通过研究 transformer 如何完成此类记忆任务,对这一属性进行了数 - 探索学习算术方程的认知架构
通过实现一个数学向量化嵌入网络和一个联想记忆模型,本研究探索了支持算术学习的认知机制,以神经生物学可行的认知架构模拟这些技能的习得。通过实验,揭示了联系主义模型的泛化能力、发展计算障碍的神经学原因以及网络架构对认知性能的影响。通过这个跨学科 - 注意力近似稀疏分布式存储
该研究发现,在某些数据条件下,Transformer Attention 机制与 Kanerva 的 Sparse Distributed Memory 有密切关联,可以提供 Attention 的新的计算和生物学解释,进一步确认预训练的