利用探测预测微调性能
本论文通过 probing 调查 fine-tuning 和 knowledge distillation 过程中,BERT 基础的自然语言理解(NLU)模型出现的现象。实验结果表明,当前形式的 probing 范式不适合回答这些问题,因此,信息可解码的量化是探测范式在许多实际应用中至关重要的。
Jan, 2023
本文研究了 BERT、RoBERTa、ALBERT 三个预训练模型在句子级探测下,微调如何影响它们的表示。发现微调对于探测任务的准确性有着重大影响,但不同模型和任务的影响有所不同。在发现微调对于探测有着积极或消极的影响时,需进行慎重解释。
Oct, 2020
本研究探索寻找一种数量化方法,以估算合理的探测数据集大小,旨在构建一个系统性的诊断神经自然语言处理 (NLP) 模型探测数据集的框架。通过几个案例研究,我们验证了我们的估算具有足够的统计功效。
Feb, 2022
本文介绍了一种基于信息理论的方法来评估神经网络对自然语言处理的理解程度,即探针,发现在评估中应选择表现最好的模型,即使它是更复杂的模型,以获得更紧密的估计和更多的语言信息。作者在多种语言数据集上进行实验验证了这种方法的有效性。
Apr, 2020
大型语言模型在医学领域中的应用是分析和调查临床试验的任务,本研究使用记忆探测方法研究在临床试验上训练的 Sci-five 模型,通过训练任务特定的探测器,调整模型以提高准确性,并发现探测器的大小对调整流程产生影响。
Feb, 2024
本文探讨了神经模型如何学习语言任务以及词嵌入对模型表现的影响,证明模型可以学习到语言属性,而预训练的词嵌入对于编码这些属性起着重要作用。
May, 2020
本文介绍了一种名为 'in-context probing' 的方法,能够更好地提高大型语言模型在分类任务中的鲁棒性,并证明了这种方法在与提供的指令变化较大时更具可靠性。
May, 2023
本文提出了一种无模型的探测方法 —— 提示探测法,通过在 5 个探测任务上的实验表明,这种方法在提取信息方面与诊断探针相当或更好,并且可以自我学习得更少。此外,结合关注头修剪与提示探测法,分析模型在其架构中存储语言信息的位置,并通过删除对特定语言属性至关重要的头部来评估预训练的有用性。
Jul, 2022
研究表明优化 Fine-tuning 效果的原因是 Fine-tuning 的数据集大小,同时数据集大小会影响编码的语言知识程度,而且数据集大小主要影响神经网络的高层,且这种影响程度跟 Fine-tuning 迭代次数有关。
Mar, 2022
本研究采用对比探针法,探究生物医学领域基于 UMLS 词汇库的预训练语言模型的知识转移机制,并提出了 MedLAMA 作为基准来测试多种最先进的语言模型和探测方法,其中 Contrastive-Probe 方法的性能表现优于其他方法,为此领域更合适的探针技术的发展提供了启示。
Oct, 2021