通过使用机器学习及自然语言处理技术,研究语言习得过程,探讨如何让模型学习在有限的语言输入下获取语言知识,以验证关于人类语言学习本质的假说。
Aug, 2022
通过序列记忆和分块构建的最小认知体系架构用于学习语言,替代了使用深度学习的大型语言模型,并且能够从零开始学习人工语言,并提取支持学习的语法信息。研究表明这种简单的架构的强大性,并强调序列记忆作为语言学习过程的关键组成部分的重要性,这可能解释了仅人类发展了复杂语言的原因。
Feb, 2024
大型语言模型的神经表示与脑成像测量的神经响应非常相似,因此表明该模型可以产生类人的表示。
Jun, 2023
比较神经语言模型和心理可信模型,发现心理可信模型在多种多样的背景下(包括多模态数据集、不同语言等)表现更优,尤其是在融合具象信息的心理可信模型中,对单词和段落层面的大脑活动预测表现最佳。
Apr, 2024
通过生物学上的神经元网络组合中的多种互补机制,可以在人工神经网络中实现连续学习。
Apr, 2023
通过比较语言模型特征对大脑活动的预测准确性,研究发现语言模型和人脑在语言信息处理方面存在相似性。
Nov, 2023
利用深度语言模型与人脑之间的相似性,以模型为基础的方法成功地复制了一项神经元相关语言研究,比较了听取常规和乱序叙述的七名受试者的功能磁共振成像,并进一步扩展和精确到 305 名听取 4.1 小时叙述故事的个体的脑信号,从而为大规模且灵活地分析语言的神经基础铺平了道路。
Oct, 2021
将贝叶斯模型的归纳偏差与神经网络的灵活表示相结合,使得从自然语素材中有限学习成为可能。
May, 2023
我们旨在解释人脑如何将单词连接起来形成句子,通过引入一种新颖的模型来建模句法表示,可能显示出所有自然语言的普遍句法结构的存在,从而提供人类大脑中语言工作方式的基本理解,同时为语言学、心理学和认知科学的理论提供一些见解。我们研究了普遍句法结构的逻辑和建模技术的方法论,试图分析展示不同自然语言(如英语和韩语)中语言过程的普遍性的语料库。最后,我们讨论了关于人类大脑理解方面的关键周期假说、普遍语法以及其他一些语言断言。
Dec, 2023
研究神经语言理解基础一直是各种科学研究项目的长期目标,最近的语言建模和神经影像技术的进展为语言的神经生物学调查和构建更好、更类人的语言模型提供了潜在的改进。本文综述了从早期研究将事件相关电位和源于简单语言模型的复杂性度量联系起来的一条线路,到使用大型语料库训练的人工神经网络模型与使用自然刺激的多个模态的神经响应记录相结合的当代研究。
Mar, 2022