ACLMar, 2022
TableFormer:表格文本编码的鲁棒 Transformer 建模
TableFormer: Robust Transformer Modeling for Table-Text Encoding
Jingfeng Yang, Aditya Gupta, Shyam Upadhyay, Luheng He, Rahul Goel...
TL;DR提出了一种结构完整和鲁棒性强的表格文本编码架构 TableFormer,通过可学习的注意力偏置完全融合了表格结构偏差,进一步强化了对表格的理解能力,在 SQA、WTQ 和 TabFact 等表理解数据集方面优于强基线,尤其在面对具有答案不变的行列顺序扰动时,相对于最佳基线的提升达到 6%。