BriefGPT.xyz
大模型
Ask
alpha
关键词
multi-lingual bert-based models
搜索结果 - 1
ACL
MuCoT: 低资源语言中的多语言对比训练问答
本文提出一种用于低资源语言的提高问答技术的方法,即通过翻译和转写将问题回答样本扩充到目标语言,利用增广数据微调已经在英语中预训练的 mBERT 问答模型,并引入对翻译问题上下文特征对之间的对比损失来提高不同语言家族的翻译准确性。
PDF
2 years ago
Prev
Next