探针与解析器的故事
本文介绍了一种基于信息理论的方法来评估神经网络对自然语言处理的理解程度,即探针,发现在评估中应选择表现最好的模型,即使它是更复杂的模型,以获得更紧密的估计和更多的语言信息。作者在多种语言数据集上进行实验验证了这种方法的有效性。
Apr, 2020
通过研究嵌入式语句在较少语言资源环境下的探测技术,揭示了探测数据集规模和分类器等结构设计选择对探测结果影响很大,同时,强调英语探测结果无法转移至其他语言,未来应进行更公平和全面的多语言句子级探测任务评估。
Jun, 2020
通过引入 Pareto hypervolume 作为评估度量和依赖文法分析作为更难的探针任务,从而探究探针评估下的文本语言结构和语义表示的性质和限制。
Oct, 2020
在研究了线性探测器的限制条件后,我们针对六种语言提出了一种具有同样参数数量的非线性变体,并使用径向基函数(RBF)核函数进行了测试,发现在所有语言中,RBF 核函数与正则化相结合能够显著提高基线(Baseline)的性能。
May, 2021
该研究通过使用新型正交结构探针,针对比较语言特征研究并评估了 9 种不同语言中 mBERT 的语境表示所编码的句法和词汇结构信息,并发现对于与英语密切相关的语言,在跨语言嵌入空间中无需进行转换,而对于其他语言,则需要学习分别进行的正交转换。
Sep, 2021
本文讨论了自然语言处理系统中之前探测语言结构方法的缺陷,并提出了基于多元高斯探针的内在探测框架,以便于检测词向量的语言信息。通过 36 种语言的实验证明,多数形态语法特征由少数神经元可靠编码,而 fastText 相较于 BERT 更加集中其语言结构。
Oct, 2020
本研究基于任务版本的概念,通过发展一种启发式工具 DirectProbe 直接研究表示物的几何结构,揭示了嵌入空间如何表示标签,并预测了分类器的性能。
Apr, 2021
通过衡量语言模型上下文嵌入中恢复标记树的程度,我们提出使用考察探测来对语言模型进行排序,从而确定适合特定语言的最佳模型选择。在 46 种不同类型和结构的语言模型 - 语言对中,我们的探测方法预测最佳语言模型选择的准确率为 79%,比训练完整解析器需要更少的计算量。在本研究中,我们发现 RemBERT 是一个最近提出的解耦合语言模型,它显著包含较少的固有依赖信息,但通常在完全微调后可以产生最佳的解析器结果。在排除这个异常值后,我们的方法在 89%的情况下确定最佳的语言模型选择。
Jun, 2022
语言模型中使用的语法信息可能存在多余编码,通过一种新的探针设计,可准确引导探针考虑嵌入中的所有语法信息,揭示语法在当前方法未能探测到的模型中的有效性,进而通过注入语法信息提高模型性能。
Apr, 2022