BriefGPT.xyz
Ask
alpha
关键词
multilingual-bert
搜索结果 - 2
面向阿拉伯方言变异鲁棒性的参数和数据高效连续预训练
在使用多语言语言模型进行低资源和高资源语言的任务中,阿拉伯语的方言差异引起了广泛关注。本文采用 mBERT 预训练和两种持续预训练方法,证明这些方法都可以帮助提高方言分类任务的性能。
PDF
2 years ago
剔除重叠词:再探希望言论检测中的数据不平衡
本研究利用聚焦损失、数据增强和预处理策略等方式,解决了积极表达检测中数据不平衡的问题,并通过详细研究发现,将聚焦损失应用于多语言 BERT 的训练过程中,弥补了类别不平衡的影响,提高了整体的 F1-Macro 值,而基于上下文和反向翻译的词
→
PDF
2 years ago
Prev
Next