编码语言信息与任务表现之间关系的可视化
本文介绍了一种基于信息理论的方法来评估神经网络对自然语言处理的理解程度,即探针,发现在评估中应选择表现最好的模型,即使它是更复杂的模型,以获得更紧密的估计和更多的语言信息。作者在多种语言数据集上进行实验验证了这种方法的有效性。
Apr, 2020
该研究比较了四种不同的预训练目标(语言模型、翻译、跳跃思考和自编码)对模型学习语言信息和句法信息的影响,结果表明语言模型对于转移学习和需要句法信息的应用最为适合。
Sep, 2018
本文探讨了将预训练的编码 - 解码模型(特别是 T5)与语言知识相结合用于预测目标任务时的影响。我们研究了在预测句子的结构语言属性的中间任务上微调 T5 模型是否会改变其在预测句子级复杂性目标任务上的性能。我们的研究包括在意大利语和英语数据集上进行的各种实验,使用了单语和多语 T5 模型以及不同尺寸的模型。无论是在两种语言还是在跨语言配置中,结果表明,从语言学角度出发的中间微调通常对目标任务的性能有积极影响,特别是在模型较小且数据有限的情况下。
Feb, 2024
训练多任务自动编码器进行语言任务,分析学习到的句子隐藏表示。加入翻译和词性解码器时,表示将显着改变。使用的解码器越多,模型根据句法相似性对句子进行聚类的效果越好。通过插值句子来探索表示空间的结构,得出很多有可识别句法结构的伪英语句子。最后,我们指出了模型的一个有意思的特性:两个句子之间的差分向量可以添加到第三个具有类似特征的句子中,以有意义的方式改变它。
Jan, 2018
本文提出了一种方法来探测在预训练语言模型中进行逻辑推理需要的语言现象,发现预训练语言模型对于一些推理所需要的语言信息进行了编码,同时也发现了有一些信息的编码比较弱,但是预训练语言模型通过微调能够有效地学习到缺失的语言信息。这些结果为语言模型作为支持符号推理方法的语义和背景知识库的潜力提供了有价值的见解。
Dec, 2021
利用信息论探测套件,我们分析了 9 项任务,涵盖语法、语义和推理,在 2 百万次预训练步骤和 5 个种子中,识别了关键学习阶段,语法知识在全面训练的 0.5% 后迅速获得,持续性能改善主要来自对开放域知识的获取,而语义和推理任务则受益于后期对长距离语境化和更高专业化的提升,跨任务相似性的测量进一步揭示了语言相关任务在训练期间共享信息,这在关键学习阶段比之前或之后更为明显。我们的发现对模型可解释性、多任务学习和有限数据学习具有重要意义。
Oct, 2023
本文探究了神经语言模型(NLM)在调整细节后所学习到的语言知识及其对于多种分类问题的预测影响,结合多重探测任务发现,尽管 BERT 能够编码多种语言特征,但在特定的下游任务训练后往往导致相关信息丢失,而 BERT 对于不同语言属性的编码能力将正面影响它的预测能力。
Oct, 2020
本文探讨了神经模型如何学习语言任务以及词嵌入对模型表现的影响,证明模型可以学习到语言属性,而预训练的词嵌入对于编码这些属性起着重要作用。
May, 2020
本篇论文旨在探讨比较语言学理论和神经语言模型之间的相关性,其中使用了语言模型来衡量语义距离并研究了其对于语言学的意义、提出了衡量语言模型中的意外性的方法以及证明了该方法在探究语言运用的知识结构方面的有效性。
Jul, 2022
本文分析了 BERT 在六种不同的任务中精细调整过程中所嵌入的句法树随着调整而演变的情况,结果表明编码的语法信息在不同任务的精细调整过程中被遗忘(词性标注)、强化(依存句法和组成成句)或保留(语义相关任务)。
Jan, 2021