BriefGPT.xyz
Ask
alpha
关键词
cross-lingual transfer tasks
搜索结果 - 2
用基于音译的后训练对齐打破多语言预训练语言模型的脚本障碍
使用基于音译的预训练后对齐(PPA)方法,改善使用不同文字脚本的相互关联低资源目标语言与高资源源语言之间的跨语言对齐,进而在跨语言转移任务中,提高模型性能达到 50% 的改进;同时使用非英语语言作为源语言转移,可获得更大的改进。
PDF
8 days ago
ACL
mLUKE: 多语言预训练语言模型中实体表示的强大力量
此篇论文研究了如何利用来自 Wikipedia 实体的跨语言对齐信息来提高多语言预训练语言模型的效果,并探索了在下游跨语言任务中使用实体表示方法的有效性。
PDF
3 years ago
Prev
Next