神经网络作为屈折的认知模型的全面对比
本研究通过训练一组不同参数设置的 Transformer 模型,在英语动词过去式词形成任务上取得了高精度,进一步暗示了模型具有某种程度的抽象学习能力,但其表现不符合人类数据,可能不是一个好的认知模型。
Oct, 2022
本文研究了现代编码器 - 解码器模型在处理英文过去式方面的表现,发现其表现不如传统的基于规则的模型,因此我们认为目前还没有足够的证据证明神经网络对于此任务的性能很好。
Jun, 2019
通过将词汇学特征添加到 LSTM 和 BERT 模型中,我们比较了多种语言中命名实体识别、依赖解析和评论过滤任务的基线和改进模型表现,结果显示,根据所添加的特征的质量和任务的不同,这些特征对于 LSTM 的 NER 和 DP 任务表现提升效果较好,而不太适用于 CF 任务;对于 BERT,只有在高质量特征时才会对 DP 表现有所改善,而且相对于强大的多语言 BERT 模型,语言特异性 BERT 变体的改善程度较小。
Nov, 2020
通过研究人类和 Encoder-Decoder 模型在英语和德语动词词形和名词复数形式的记忆和推广的行为,我们发现现代神经模型可能仍然难以适应少数种类的推广。
May, 2020
回顾了和人脑活动相关的人工语言模型研究,发现人工神经网络中单词意义的神经表征与其使用的密集词向量高度吻合,并且人工神经网络内部的处理层次与人脑有相似之处,但是依据研究的不同而有所不同。因此,建立人工神经网络作为自然语言理解过程模型的当前挑战之一是利用其高度结构化的表征几何来映射表征到脑数据。
Jan, 2023
本研究使用控制的心理语言学实验方法,研究神经网络语言模型对句法状态的递增表示程度,发现 LSTM 序列模型在训练大型数据集时能够对文本中的广泛句法状态进行有效的表示,而对小型数据集的训练效果不如递归神经网络 (RNNG)。
Mar, 2019
提出了一种新颖的解释方法,利用人脑阅读复杂自然文本时的脑成像记录来解释最新的四个 NLP 模型 ——ELMo、USE、BERT 和 Transformer-XL 中的词和序列嵌入,研究它们在层深度、上下文长度和注意类型之间的差异,并推测改变 BERT 以更好地对齐脑成像记录将使其更好地理解语言。
May, 2019
该研究提出了一种基于神经网络的自然语言推理模型,使用表示学习、LSTM、注意力机制和可组成的神经网络来实现任务,并在 Stanford 自然语言推理数据集上实现了比文献中所有已发布模型更好的准确性。
Nov, 2016