一种基于大脑皮层层次性事件回忆器的架构
模拟了从计算模型中提取的表示进行的分析揭示了与大脑信号相似的时间动态,这表明这些特性可以在没有语言知识的情况下出现。此外,研究证明,声素的编码模式支持一定程度的跨语境概括,但我们发现这种概括的有效性取决于具体的语境,这表明单独的分析不足以支持存在语境无关编码。
May, 2024
本论文针对语音识别的问题,提出自我监督学习可能是解决这一问题的一个更好的选择,核心是自己生成特征,通过自我监督可以获得和人脑工作方式类似的神经网络模型,帮助理解语言习得和人脑在语音处理方面的机理。
Jun, 2022
通过自主学习的潜在事件编码,我们模拟了层次预测的发展,并提出了一种采用递归神经网络的分层体系结构,能够生成能够压缩感知动作序列的稀疏变化潜在状态。高层网络能预测潜在状态发生变化的情况。我们在仿真机器人操纵器上进行了实验,结果显示这个系统学习到了准确的数据事件结构,能够生成类似于婴儿眼追踪研究中发现的目标预期行为,并且为自主学习压缩层次编码和利用这些编码来生成自适应行为提供了新的方式。
Jun, 2022
通过受感官皮层网络启发的特征提取方法,提出了一种名为 bioinspired cortex 的算法,它可以从压缩形式的流信号中收敛到正交特征,比传统的聚类算法更加高效,具有更好的泛化性能,可以用于金融、网络安全和医疗保健等大范围应用中的机器学习基本组件,如推理、异常检测和分类。
Jan, 2022
本文介绍一种基于 AER 视觉传感器输出中的精确时间信息的突触神经元模型,在物体识别中可以实现高准确度,实验表明这种基于时间的计算方法可以比传统的时钟系统更为高效。
Aug, 2015
该论文提出了一种用于事件类密集预测任务的低延迟神经网络架构,该架构通过构建分层的时间记忆来在适当的时间尺度上编码内容,并通过基于注意力机制的事件表示将稀疏事件流编码为记忆单元,有效地提高了准确性和性能。
May, 2023
本文介绍了一种基于递归神经网络(RNN)的神经元群体动态行为的建模方法,该方法经过 macaque 大脑皮层的四个数据集的测试,效果较其他模型更好,其中,RNN 的自回归偏差是实现最高水平性能的关键因素之一。此外,提出了一个新的混合架构,将 RNN 与自我关注补充在一起,从而进一步提高性能。
Apr, 2023
深度语言模型(DLMs)为理解人脑中自然语言处理机制提供了一种新的计算范式。通过使用分层连续数值向量来表示单词和上下文,DLMs 与传统的心理语言学模型不同,从而产生了大量新兴应用,如人类般的文本生成。本文通过展示 DLMs 的分层层次结构可以模拟大脑中语言理解的时间动态性,从而证明了 DLMs 的层深与层是否最能预测人脑之间存在强相关。我们利用高时序分辨率的电皮层图谱(ECoG)数据记录参与者在听取一个 30 分钟叙述时的神经活动,同时将相同的叙述输入高性能 DLM(GPT2-XL)中。然后,我们提取 DLM 的不同层中的上下文嵌入,并使用线性编码模型预测神经活动。首先,我们关注下额下回脑回(IFG),然后扩展我们的模型,跟踪语言处理层次结构中从听觉到句法和语义区域的渐增时态感受窗口。我们的结果揭示了人类语言处理和 DLMs 之间的联系,DLM 的信息逐层累积上下文与高级语言区域的神经活动时机形成镜像关系。
Oct, 2023
通过序列记忆和分块构建的最小认知体系架构用于学习语言,替代了使用深度学习的大型语言模型,并且能够从零开始学习人工语言,并提取支持学习的语法信息。研究表明这种简单的架构的强大性,并强调序列记忆作为语言学习过程的关键组成部分的重要性,这可能解释了仅人类发展了复杂语言的原因。
Feb, 2024
基于自注意力机制的大型语言模型在语言处理和自然语言本身中取得了惊人的成绩,并且在不同性质的各种任务中也取得了成绩。本文在预测编码框架内提出了一个平均场学习模型,成功地验证了其在分类手写数字和玩具以及真实语言语料库中的有效性。因此,我们的模型为研究语言处理和意想不到的普遍智能的物理和生物对应关系提供了一个起点。
Sep, 2023