本文从几个角度综合了各种主张,提出了一种独特的语言学派,将数学几何观点引入到语法中,描述了一种基于几何学的机制,用于解释人类语言里的显著特征,并提出了一种新型的匹配方法,利用代表单词的标记链来形成句子,并匹配语法词序。最终得到的二维和三维结合体为以往传统语法体系难以准确描述的语言规则提供了一种新视角。
Mar, 2023
我们旨在解释人脑如何将单词连接起来形成句子,通过引入一种新颖的模型来建模句法表示,可能显示出所有自然语言的普遍句法结构的存在,从而提供人类大脑中语言工作方式的基本理解,同时为语言学、心理学和认知科学的理论提供一些见解。我们研究了普遍句法结构的逻辑和建模技术的方法论,试图分析展示不同自然语言(如英语和韩语)中语言过程的普遍性的语料库。最后,我们讨论了关于人类大脑理解方面的关键周期假说、普遍语法以及其他一些语言断言。
Dec, 2023
本文介绍了现代深度神经网络在机器翻译等需要广泛语言技能的工程应用中取得的卓越性能,探讨它们是否从接触的原始数据中引导出类似于人类语法知识的思想,并讨论这些工作对理论语言学的广泛影响。
Apr, 2020
通过一系列代理实验证明,基于习惯和互动的选取和对齐方式,能够推动语言交互更自然的语法范畴与语法模式的形成。
Apr, 2022
人类语言是一种独特的自然界沟通方式,其系统性在于信号可以分解为词汇并通过一种规则方式组合成句子,且通过最小化过剩熵的方式实现自然语言一致性,进而达到高效的沟通和信息处理。
May, 2024
探讨了人类语言习得中词汇分类的起源是基于先天内在结构还是出于自然学习的能力,利用人工神经网络预测语句中下一个词,揭示了也许由于预测编码和过程,大脑也可能形成抽象的词汇分类,即使其在训练时没有接收到有关词汇分类或语法规则的任何明确信息。
Feb, 2023
本文回顾了近年来自然语言处理领域的语言模型的发展,并探讨在研究语言模型中基于句法的研究中存在的问题以及解决方案,旨在为未来语言模型的研究提供一种较为多样化和立体化的研究视角。
Oct, 2021
这篇研究使用一个新颖的推理测试来探索语言数据对于计算机理解物理世界的可行性,并强调模型可能直接从纯语言数据中学习的内容。
Aug, 2022
调查了 250 多个英文语言模型行为的研究,讨论了 Transformer 语言模型在特定任务微调之前的基本功能,以及模型对特定输入和表面特征的敏感性。尽管模型参数规模扩大到数百亿,但仍容易出现非事实性回答、常识错误、记忆文本和社会偏见等弱点。我们综合近期结果,强调了目前关于大型语言模型能够和不能够做到什么的已知情况。
本文探讨如何在没有专门的句法指导的语料库中从语料学习句法的可行性,以语料库的观察结构为基础,通过定义和隔离语法和意义 / 语用学信息,我们描绘了自主语法的形式特征,并展示了通过简单的优化过程搜索基于语法的词汇类别,而无需对模型形式做任何先验假设的可能性。
May, 2020