GilBERTo 中的能动性和目的性:认知启示
以 semantic notion of agentivity 为例,研究了 large language models 在句法和语义交互方面的表现;作者创建了一个新颖的评估数据集,发现 GPT-3 的表现非常好,甚至比语法和语义语料库的统计结果还要好,这表明大语言模型可能对语言注释、理论测试和发现比某些任务的语料库更有用。
May, 2023
本文探讨 Transformer 模型在捕捉加利西亚语中的主谓和名词形容词一致性依赖方面的能力,并通过一系列词语预测实验来评估加利西亚语的现有单语和多语模型的性能,并对不同训练点上两个单语 BERT 模型的不同成就程度进行比较,得出了所需的训练步骤的有趣见解。
Jun, 2022
本文提出了一种新的语法任务集,专注于矛盾检测,并评估了递归模型和 BERT 网络。虽然 BERT 在大多数逻辑形式上具有更好的泛化效果,但在处理计数算子时仍有待改进,同时表明该语法任务可以在不同的语言中实现并实现跨语言传递学习。
May, 2019
本研究提出了 Morph Call,它是针对四种不同形态的印欧语言(英语,法语,德语和俄语)的 46 个探测任务套件,使用诱导句子扰动的检测方法,在神经元,层和表示水平上分析了四个多语言 transformers 的形态句法内容,其中包括其不太被探究的蒸馏版本,并研究了精调 POS 标记对模型知识的影响。研究结果表明,精调可以改善和降低探测性能,并改变形态句法知识在模型中的分布。代码和数据公开,希望填补 transformers 的研究空白。
Apr, 2021
研究使用神经模型捕捉词汇句法推理的能力。我们以事件事实预测任务为案例研究对象,并建立一个各种句法上下文中所有英语嵌入子句动词的事实判断数据集。我们使用这个数据集来探究当前最先进的神经系统的行为,揭示了这些系统在事实预测方面会出现某些系统性错误。
Aug, 2018
通过对 GPT-2 的激活进行统计的方法,将语言模型的高维度激活分解成四个组合类别:词汇、组合、句法和语义表示,并发现组合表示比词汇表示更广泛地招募了大脑皮层网络,并且句法和语义共享一个分布式神经基础。该研究提出了一个多功能的框架来分离神经活动中的语言建构分布式表示。
Mar, 2021
本论文研究了通过将句法信息与深度学习模型相结合,提高自然语言处理任务的性能表现,对多特征的语法 - Transformer 进行了测试,发现在完整数据集和部分数据集中,BLEU 得分都有明显提升,同时,在 GLUE 基准测试中,语法嵌入的 BERT 微调在几个下游任务中表现优于基线。
Nov, 2019
研究动词词汇体现出的语态对于文本蕴涵和学习语篇层推断至关重要。我们使用分布语义学有效地模拟了动态类别的两个基本维度,状态与事件以及目的性与非目的性事件。我们发现动词的本地上下文最能表明其语态,并证明封闭类词往往比内容词更具区分能力。我们的方法优于先前的三个数据集。最后,我们提供了一个由人 - 人对话注释的词汇视角数据集,并呈现实验结果,表明终止性与文本体裁和话语目标的相关性。
Oct, 2020
本文提出一个过程,用于研究神经机器翻译 (NMT) 系统生成的句子表示如何编码不同的语义现象,最终发现编码器最适合在语法 - 语义界面上支持推理,而不是需要世界知识的指代消解。
Apr, 2018
该研究通过在不同语言的多语言语言模型和单语 BERT 模型中执行反事实扰动,并观察模型主谓一致概率的效果,发现了受语法一致性影响的神经元的分布情况,语言模型的行为分析可能低估了掩码语言模型对语法信息的敏感性。
Oct, 2022