(重新) 构建自然语言处理中的意义
本文对比了人类和机器如何表现单词的意义,认为自然语言处理系统在某些方面可以作为人类单词相似性的成功模型,但在其他方面还有不足。当前的模型过度关注大型语料库中基于文本的模式,而与人们通过单词表达的愿望、目标和信念联系过于弱。我们讨论了更有前途的基于视觉和行动本质的自然语言处理系统,并认为这些系统将更成功地实现更类似于人的概念基础单词意义。
Aug, 2020
本文提出了一个用于评估神经 NLP 模型成分表示性质的框架,并使用探查分类器进行具体操作,从而为科学哲学家和 NLP 从业人员提供了一个测试性的场所来评估关于表示性质的说法,并提供了开展实证研究的新途径。
Jun, 2023
本文介绍了一种使用构造语法概念来丰富语言表示的方法,该方法由一种基于使用的构造语法框架支持,通过提取具有辨别性的构造,然后利用关系超图注意网络获取构造信息的表示来增强语言表示,实验结果表明该模型在各种自然语言理解任务方面具有明显优势。
Jun, 2023
本文探讨如何利用概念和意义的构建方式来创建更易理解的机器学习模型,通过提出分类概念的新方法,即 “形式” 和 “功能”,阐明了意义的本质,并提出了提高模型可理解性的建议。
Jul, 2016
本文讨论大型语言模型是否存在人类概念或含义,并指出语言模型可能捕捉了重要的含义方面,这符合人类认知的合理解释。由于概念角色由内部表示状态之间的关系定义,因此含义不能从模型的体系结构,训练数据或目标函数中确定,而只能通过研究其内部状态之间的关系来确定。
Aug, 2022
提出了一种新颖的解释方法,利用人脑阅读复杂自然文本时的脑成像记录来解释最新的四个 NLP 模型 ——ELMo、USE、BERT 和 Transformer-XL 中的词和序列嵌入,研究它们在层深度、上下文长度和注意类型之间的差异,并推测改变 BERT 以更好地对齐脑成像记录将使其更好地理解语言。
May, 2019
自然语言处理领域对于意义和测量的问题进行了实证研究,本文勾勒了一种理解模型,用于评估当前模型质量测量方法的适应性,并指出不同语言使用情境类型的特点、语言理解是多方面现象,以及理解指标的选择标志了对基准测试和语言处理伦理的考虑的开端。
Oct, 2023