Jun, 2024

跨表预训练:面向异构表格数据的通用函数空间

TL;DR本研究通过引入一种跨表预训练的 Transformer 模型(XTFormer),填补了现有的跨表数据预测任务中可重复模式有限且数据稀缺的空白。实验结果显示,在 190 项下游表格预测任务中,我们的 XTFormer 在 137 项(72%)任务上胜过 XGBoost 和 Catboost,并且在 144 项(76%)和 162 项(85%)任务上超过了具有代表性的深度学习模型 FT-Transformer 和表格预训练方法 XTab。