PTaRL: 基于样本原型的表格表示学习与空间校准
本文介绍了一种新框架SubTab, 通过将输入特征分成多个子集,将学习表格数据的任务转化为多视图表示学习问题,从而捕捉其潜在的潜在表示。在MNIST数据集上,SubTab取得了98.31%的表现,与CNN的最新结果持平,并在三个其他真实数据集上超过了现有基线。
Oct, 2021
本文提出一种用于表格数据的神经网络结构——抽象层(AbstLay),用于显式地对相关输入特征进行分组并生成抽象的高级特征。同时,设计了一种结构再参数化方法以压缩学习到的AbstLay,从而在参考阶段显著降低计算复杂度。通过对七个真实世界的表格数据集进行的全面实验表明,我们的AbstLay和DANets在表格数据分类和回归方面非常有效,而且计算复杂度优于其他竞争方法。
Dec, 2021
通过引入预训练语言模型(PTM)和三个处理阶段(MT、MF、CF),提出了一种新的名为PTab的框架,以将预训练模型用于建模表格数据,并取得比现有技术更好的分类效果。
Sep, 2022
本文提出了一种利用图结构学习和图神经网络预测表格数据的新方法,通过提出的图对比学习模块、基于Transformer的特征提取器和图神经网络来同时学习实例相关性和特征交互,在30个基准表格数据集上的全面实验表明,TabGSL明显优于树结构模型和最近的基于深度学习的表格模型。
May, 2023
SwitchTab是一种新颖的自我监督方法,专门用于捕捉表格数据中的潜在依赖关系,并通过使用经过预训练的鲜明嵌入来提高下游任务的性能,同时可通过可视化来创建可解释的表示。
Jan, 2024
发展了一种基于结构化状态空间模型(SSM)MambaTab的创新方法,用于表格数据的端到端监督学习,相对于现有技术的基准,MambaTab表现出更高的性能,在需要更少的参数和最小的预处理的同时经过了多样化基准数据集的实证验证,其高效性、可扩展性、普适性和预测性的增益表明其在广泛的实际应用上作为一种轻量级、即插即用的解决方案具有潜力。
Jan, 2024
本研究通过引入一种跨表预训练的Transformer模型(XTFormer),填补了现有的跨表数据预测任务中可重复模式有限且数据稀缺的空白。实验结果显示,在190项下游表格预测任务中,我们的XTFormer在137项(72%)任务上胜过XGBoost和Catboost,并且在144项(76%)和162项(85%)任务上超过了具有代表性的深度学习模型FT-Transformer和表格预训练方法XTab。
Jun, 2024
通过一个全面的基准测试,本文研究了深度表格方法和基于树的方法在各种任务类型、大小分布和领域中的性能排名以及影响深度表格方法成功的关键因素,并提取了对预测准确性起决定性作用的元特征。这些研究将进一步促进表格数据的研究。
Jul, 2024