BriefGPT.xyz
Apr, 2021
基于ReLU和余弦相似度的BERT微调在SemEval-2021任务2中的应用
Zhestyatsky at SemEval-2021 Task 2: ReLU over Cosine Similarity for BERT Fine-tuning
HTML
PDF
Boris Zhestiankin, Maria Ponomareva
TL;DR
本文介绍我们在 SemEval-2021 任务2(多语种和跨语言上下文中的词义消歧)中的贡献,包括使用多个语言模型进行细化调整以取得更好的结果,最终我们的最佳模型结果为92.7%的准确率,排名第四。
Abstract
This paper presents our contribution to
semeval-2021
Task 2:
multilingual
and Cross-lingual Word-in-Context Disambiguation (MCL-WiC). Our experiments cover English (EN-EN) sub-track from the
→