该研究旨在通过贝叶斯框架度量文本中的归纳偏差量,并通过对 Contextual embeddings 的探究,比较了 fastText 和 BERT 在不同任务上的性能表现差异。
Oct, 2021
本文介绍了一种基于信息理论的方法来评估神经网络对自然语言处理的理解程度,即探针,发现在评估中应选择表现最好的模型,即使它是更复杂的模型,以获得更紧密的估计和更多的语言信息。作者在多种语言数据集上进行实验验证了这种方法的有效性。
Apr, 2020
本研究提出了 Amnesic Probing 方法,用以替代传统的伪推式分析方法,并通过对 BERT 进行一系列分析,发现伪推性能并不与任务重要性相关,并呼吁加强对从伪推结果中得出行为或因果结论的主张的审查。
Jun, 2020
通过引入 Pareto hypervolume 作为评估度量和依赖文法分析作为更难的探针任务,从而探究探针评估下的文本语言结构和语义表示的性质和限制。
Oct, 2020
本文探讨了神经模型如何学习语言任务以及词嵌入对模型表现的影响,证明模型可以学习到语言属性,而预训练的词嵌入对于编码这些属性起着重要作用。
May, 2020
本文提出了一种新的潜变量公式用于构建内在探测器以确定语言属性所在位置,并提出一个可行的变分逼近方法,用于求解对数似然函数计算,结果表明这个模型能够获得更好的内部探测精度,并且在跨语言的形态句法方面表现良好。
Jan, 2022
本研究基于任务版本的概念,通过发展一种启发式工具 DirectProbe 直接研究表示物的几何结构,揭示了嵌入空间如何表示标签,并预测了分类器的性能。
Apr, 2021
本文讨论了自然语言处理系统中之前探测语言结构方法的缺陷,并提出了基于多元高斯探针的内在探测框架,以便于检测词向量的语言信息。通过 36 种语言的实验证明,多数形态语法特征由少数神经元可靠编码,而 fastText 相较于 BERT 更加集中其语言结构。
通过对多种视觉 embedding 进行系统转换任务的测试与比较,发现不同的网络预训练算法会在 embedding 中编码不同类型的图像非语义信息,并且这些信息可以被有效地利用到一些特定的下游应用中。
Jul, 2023
通过引入非可训练任务(指标任务),我们展示了利用适当的指标可以更准确地获取嵌入表示中的信息,并较之探测任务的结果更能反映嵌入空间中存在的属性。因此,我们认为在提取嵌入表示的信息时应考虑实施和考虑指标任务。
Oct, 2023