关键词pre-trained contextual representations
搜索结果 - 2
- OCHADAI 在 SemEval-2022 任务 2 中:针对多语言成语鉴别的对抗训练
本文提出了一种多语言对抗训练模型,以判断一个句子是否包含习语表达。该模型利用不同多语言最先进的基于转换器的语言模型(即多语言 BERT 和 XLM-Roberta)的预训练上下文表示以及对抗性训练,提高模型的泛化能力和鲁棒性,在不依赖于人工 - EMNLP基于维度选择的内在探测
本文讨论了自然语言处理系统中之前探测语言结构方法的缺陷,并提出了基于多元高斯探针的内在探测框架,以便于检测词向量的语言信息。通过 36 种语言的实验证明,多数形态语法特征由少数神经元可靠编码,而 fastText 相较于 BERT 更加集中