ACLMar, 2022

TableFormer:表格文本编码的鲁棒 Transformer 建模

TL;DR提出了一种结构完整和鲁棒性强的表格文本编码架构 TableFormer,通过可学习的注意力偏置完全融合了表格结构偏差,进一步强化了对表格的理解能力,在 SQA、WTQ 和 TabFact 等表理解数据集方面优于强基线,尤其在面对具有答案不变的行列顺序扰动时,相对于最佳基线的提升达到 6%。