EMNLPApr, 2020
基于预训练 Transformer 的阿拉伯语信息提取实证研究
An Empirical Study of Pre-trained Transformers for Arabic Information Extraction
Wuwei Lan, Yang Chen, Wei Xu, Alan Ritter
TL;DR本文研究了针对阿拉伯自然语言处理和英语到阿拉伯语的零样本迁移学习设计的定制双语 BERT 模型 - GigaBERT,重点研究了它在四个信息抽取任务中的零样本迁移效果,实验证明该模型在监督和零样本迁移设置下都显著优于 mBERT、XLM-RoBERTa 和 AraBERT。