探究时间跨度:RoBERTa 知道什么以及何时知道?
这篇文章探讨了 BERT 模型如何从它的参数化内存中获取关系知识,并使用知识库补全任务在 BERT 的每一层中进行了测试。作者发现,中间层对于 BERT 模型中的总知识量贡献了很大的部分,同时发现 fine-tune 时,与训练数据和训练目标有关。而容量和事实密度是学习事实的关键。
Jun, 2021
本文介绍了探测方法学,通过使用外部分类器和统计分析,可以获得内层神经网络中存储的语言现象的部分表示。我们对多个 transformer 英语模型进行了时间顺序探测研究,并提供了这种探测研究的开源框架。结果表明,语言信息在训练的早期阶段就被获取,同时这些模型能够捕捉各种级别语言的各种特征,包括语态、句法和语篇,但有时他们无法完成一些容易的任务。
Jul, 2022
本论文通过 probing 调查 fine-tuning 和 knowledge distillation 过程中,BERT 基础的自然语言理解(NLU)模型出现的现象。实验结果表明,当前形式的 probing 范式不适合回答这些问题,因此,信息可解码的量化是探测范式在许多实际应用中至关重要的。
Jan, 2023
本文研究了 BERT、RoBERTa、ALBERT 三个预训练模型在句子级探测下,微调如何影响它们的表示。发现微调对于探测任务的准确性有着重大影响,但不同模型和任务的影响有所不同。在发现微调对于探测有着积极或消极的影响时,需进行慎重解释。
Oct, 2020
本文提出了一种方法来探测在预训练语言模型中进行逻辑推理需要的语言现象,发现预训练语言模型对于一些推理所需要的语言信息进行了编码,同时也发现了有一些信息的编码比较弱,但是预训练语言模型通过微调能够有效地学习到缺失的语言信息。这些结果为语言模型作为支持符号推理方法的语义和背景知识库的潜力提供了有价值的见解。
Dec, 2021
通过对预训练语言模型的深入分析,我们发现未经微调的 BERT 模型竞争传统 NLP 方法的关系知识,可以根据开放式关系进行查询,某些类型的事实知识比标准语言模型预训练方法更容易学习,并可以作为无监督的开放式 QA 系统的潜力展现。
Sep, 2019
本研究针对 6 种不同语言和 5 种不同词汇任务,对单语和多语言源 LM、无上下文编码和有上下文编码、特殊标记的包含和分层平均等不同词汇知识提取策略的影响进行了系统的实证分析,并验证了较低变压器层携带更多类型级词汇知识的主张。
Oct, 2020
本文介绍了一种基于信息理论的方法来评估神经网络对自然语言处理的理解程度,即探针,发现在评估中应选择表现最好的模型,即使它是更复杂的模型,以获得更紧密的估计和更多的语言信息。作者在多种语言数据集上进行实验验证了这种方法的有效性。
Apr, 2020
本研究探讨了使用轻量 Probing 方法去解释 NLP 模型内在机制的方法,通过对三项探测测试的准确性精确预测了模型的调优表现,为 NLP 模型的发展提供了可能。
Oct, 2022
本文主要介绍了使用 cloze-style prompts 和 OptiPrompt 等方式,旨在通过预训练语言模型来检索世界事实,并使用 fact prediction 等方式来确定模型预测准确性,并考虑这些 probing 结果是否被解释为下界,而不是固化自己的 prompt 方法从训练数据中获得的信息。
Apr, 2021