本文探讨了采用 Gradient Boosted Decision Trees 作为分类器的自然语言推断(NLI)任务方法,介绍了 FreeGBDT 方法,该方法可以在不增加神经网络的计算量的情况下,提高对特征的分类精度,实验证明 FreeGBDT 对于多个 NLI 数据集的 RoBERTa-large 基线模型都有稳定的提升。
May, 2021
本研究探讨了使用轻量 Probing 方法去解释 NLP 模型内在机制的方法,通过对三项探测测试的准确性精确预测了模型的调优表现,为 NLP 模型的发展提供了可能。
Oct, 2022
提出了一种名为 mGBDTs 的多层 GBDT 森林算法,通过堆叠多层回归 GBDTs 作为其构建块,探索学习分层表示能力。该模型可以通过变体的跨层目标传播进行联合训练,无需反向传播或可微分性,并在性能和表示学习能力方面得到了证实。
May, 2018
本文介绍了一种基于信息理论的方法来评估神经网络对自然语言处理的理解程度,即探针,发现在评估中应选择表现最好的模型,即使它是更复杂的模型,以获得更紧密的估计和更多的语言信息。作者在多种语言数据集上进行实验验证了这种方法的有效性。
Apr, 2020
本研究基于任务版本的概念,通过发展一种启发式工具 DirectProbe 直接研究表示物的几何结构,揭示了嵌入空间如何表示标签,并预测了分类器的性能。
Apr, 2021
Transformer-based 神经语言模型在自然语言处理任务中取得了最先进的性能,但一个开放问题是这些模型在处理自然语言时在词序 / 句法、词共现 / 主题相关信息中所依赖的程度。本文通过研究基于 Transformer 模型(BERT 和 RoBERTa)在英文一系列探测任务中的表现,从简单词汇任务如句子长度预测到复杂语义任务如成语标记识别,探讨了这个问题,以此加入对这一争论的贡献,并提出了一种新的探测方法 —— 主题感知探测。初步结果显示,Transformer 模型在其中间层既编码了主题信息又编码了非主题信息,但理解习惯用法的能力主要基于它们的识别和编码主题能力。此外,对这些模型在其他标准探测任务上的表现的分析表明,对主题信息相对不敏感的任务也是对这些模型相对困难的任务。
Mar, 2024
受认知神经学研究的启发,我们介绍了一种新颖的 “解码探测” 方法,利用最小对比基准(BLiMP)逐层探测神经语言模型中的内在语言特征。通过将语言模型视为 “大脑”,其表示为 “神经激活”,我们从中间层的表示中解码最小对比的语法标签。该方法揭示了:1)自监督语言模型在中间层捕捉到了 GloVe 和 RNN 语言模型无法学习到的抽象语言结构。2)句法语法性的信息在 GPT-2 的最初三层中得到了鲁棒地捕捉,且在后续层中也分布广泛。随着句子复杂度的增加,需要更多的层来学习语法能力。3)比起语法,形态和语义 / 句法接口相关特征更难捕捉。4)对于基于 Transformer 的模型,嵌入和注意力机制都捕捉到了语法特征,但显示出不同的模式。不同的注意力头对于不同的语言现象展现出类似的倾向,但贡献有所不同。
大型语言模型在医学领域中的应用是分析和调查临床试验的任务,本研究使用记忆探测方法研究在临床试验上训练的 Sci-five 模型,通过训练任务特定的探测器,调整模型以提高准确性,并发现探测器的大小对调整流程产生影响。
Feb, 2024
本文探讨了神经模型如何学习语言任务以及词嵌入对模型表现的影响,证明模型可以学习到语言属性,而预训练的词嵌入对于编码这些属性起着重要作用。
May, 2020
探测分类器作为解释和分析自然语言处理深度神经网络模型的一种突出方法论已经被广泛应用。然而,最近的研究表明了其方法上的各种局限性。本文批判性地回顾了探测分类器框架,突出了其优点、缺点和进展。
Feb, 2021