关键词pretrained language representation models
搜索结果 - 2
- BUT-FIT 参加 SemEval-2020 任务 4:多语言常识
本文描述了 BUT-FIT 团队在 SemEval 2020 任务 4(常识验证和解释)中的工作,涉及三个子任务:A、B、C。其中,在子任务 A 和 B 中,我们的提交基于预训练语言表示模型和数据增强。我们尝试了使用多语言模型和机器翻译数据 - 文本跨任务跨度表示的分析
本文通过对六种跨度表示方法和八个预训练语言模型在六个任务中的综合实证评估,发现即使有些简单跨度表示在多个任务中相对可靠,但一般来说最优跨度表示方法因任务而异,也可能因不同任务的不同方面而异。同时,我们还发现,与精细调整的编码器相比,跨度表示