中文 BERT 是否编码单词结构?
本文探讨了 BERT 对句法层次结构、位置信息以及自注意力向量的编码,并发现 BERT 在较低的层次上良好地编码了位置信息,在较高的层次上则更倾向于编码层次结构,这表明 BERT 的表示法确实模拟了语言的一些层次结构,并且对于处理反身代词的普遍敏感性没有人类大脑那么强。
Jun, 2019
本文提出了一种新的方法,利用单词结构并将词汇语义融入预训练模型的字符表示中,以加强单词信息的表达,通过词 - 字符对齐注意机制和集成方法来提高不同中文自然语言处理任务的性能,并进一步证明了模型各组件的有效性。
Jul, 2022
应用 BERT 模型对中文分词任务进行了探究,在标注不一致的情况下 BERT 模型可以稍稍提高性能,具有良好的特征提取能力,大模型通常具有更好的性能,可作为其他神经网络模型的优秀特征候选项,Softmax 表现可以不输 CRF。
Sep, 2019
文章提出了一种新的以词为基本单元的对齐注意力方法,用于解决原有以字符为基本单元的中文预训练模型无法充分利用词义信息的问题,并通过多源信息融合的方式解决了分词误差传递的潜在问题,实验结果表明该模型对于五种中文 NLP 基准任务能够带来显著提升。
Nov, 2019
本文分析了 BERT 在六种不同的任务中精细调整过程中所嵌入的句法树随着调整而演变的情况,结果表明编码的语法信息在不同任务的精细调整过程中被遗忘(词性标注)、强化(依存句法和组成成句)或保留(语义相关任务)。
Jan, 2021
提出了一种改进的语言表示模型 Semantics-aware BERT,通过集成来自预训练语义角色标注的显式上下文语义,从而在十项阅读理解和语言推理任务中获得了新的最先进或实质性改进的结果,以促进自然语言理解。
Sep, 2019
本研究通过对 18 种语言进行多语言 BERT 的解码实验,以测试依存句法是否反映在注意力模式中的普适性,并归纳出单一注意力头可以以上线准确率解码全树。尝试通过对 mBERT 进行监督解析目标的微调,结果表明注意力模式可以代表语言结构。
Jan, 2021
本文从 BERT 的表示空间出发,通过一系列探针任务和属性方法探究模型的语言学知识表达方式,发现 BERT 倾向于对语法和语义异常进行编码,并能够明显地区分语法数和时态子空间。
Apr, 2021
本文描述了一种特别有效的模型 BERT,它能够通过从语义和句法子空间中提取一般有用的语言特征来代表语言信息,同时还探讨了注意力矩阵和单词嵌入中的句法表示,并提出了一种数学证明来解释这些表示的几何形态。
Jun, 2019