ACLFeb, 2022

LiLT:一种简单而有效的语言无关布局转换器,用于结构化文档理解

TL;DR我们提出了一种简单而有效的语言无关布局变换器 LiLT,可在单个语言的结构化文档上进行预训练,然后使用相应的现成单 / 多语言预训练文本模型对其他语言进行直接微调,实验结果表明 LiLT 在八种语言上均能够取得竞争性甚至卓越的性能,从而使得能够从文档布局结构的预训练中获得语言无关的益处。