深度学习中的句法结构
通过在人工语言学习研究中复制并测试深度神经网络学习新语言的记忆和推广能力,我们在神经网络与人类之间发现了惊人的相似性,并发现结构化语言输入在提高神经网络系统化概括和记忆错误方面的效果与自然语言存在高度相关性。
Feb, 2023
该研究回顾了当前深度学习语言处理网络的主要创新,讨论了一系列研究表明深度网络能够进行微妙的语法依赖性泛化,但也不依赖于系统化的组合规则,这一现象应该引起语言学家和认知科学家的兴趣。
Mar, 2019
通过序列记忆和分块构建的最小认知体系架构用于学习语言,替代了使用深度学习的大型语言模型,并且能够从零开始学习人工语言,并提取支持学习的语法信息。研究表明这种简单的架构的强大性,并强调序列记忆作为语言学习过程的关键组成部分的重要性,这可能解释了仅人类发展了复杂语言的原因。
Feb, 2024
本文提出一种基于神经机器翻译的新模型 Syntactic Attention,采用分离语法与语义学习的方式训练,拥有捕捉人类语言组成性结构的能力,相较于标准深度学习方法在具有组成性泛化任务的数据集 SCAN 上表现显著优异。
Apr, 2019
我们旨在解释人脑如何将单词连接起来形成句子,通过引入一种新颖的模型来建模句法表示,可能显示出所有自然语言的普遍句法结构的存在,从而提供人类大脑中语言工作方式的基本理解,同时为语言学、心理学和认知科学的理论提供一些见解。我们研究了普遍句法结构的逻辑和建模技术的方法论,试图分析展示不同自然语言(如英语和韩语)中语言过程的普遍性的语料库。最后,我们讨论了关于人类大脑理解方面的关键周期假说、普遍语法以及其他一些语言断言。
Dec, 2023
通过针对不同结构相关现象的四个实验,我们评估了 BERT 在原始数据的预训练过程中是否获得了形成结构化概括的归纳偏差,并发现 BERT 在实体 - 助动词倒装,反身代词,以及嵌套从句中动词时态检测中进行了结构化概括,但在 NPI 许可证检测中进行了线性概括,这是迄今为止最有力的支持从原始数据中获取结构性偏差的人工学习器研究结果之一。
Jul, 2020
通过比较编码器生成的消息向量的真值条件表示与人类生成的指称表达式,我们发现神经表示能够自发地开发出具有功能类似于自然语言定性属性的 “语法”,并从这些对齐的(向量,话语)对中搜索结构化关系,以发现对应于否定、连词和析取的简单向量空间变换。
Jul, 2017
本文回顾了近年来自然语言处理领域的语言模型的发展,并探讨在研究语言模型中基于句法的研究中存在的问题以及解决方案,旨在为未来语言模型的研究提供一种较为多样化和立体化的研究视角。
Oct, 2021
我们在本文中介绍了两种归纳偏差方法,分别针对语法结构和依赖关系,实现了深度学习模型的归纳偏差,并通过这些方法建立了深度学习模型的潜在分层表示,使模型能够处理复杂的序列结构并在语言处理任务中取得了优秀的效果。
Jun, 2022