GatedTabTransformer:表格建模的增强深度学习架构
TabTransformer 是一个基于自注意力变换器 (Transformer) 的深度表格数据建模架构,可应用于监督和半监督学习。经过在 15 个公开数据集上的广泛实验,我们展示了 TabTransformer 在表格数据的深度学习方法中的超越和匹配效果。同时,我们演示了从 TabTransformer 学习的环境嵌入具有高度的鲁棒性,可用于噪声和丢失形式的数据特征,提供更好的可解释性。最后,对于半监督场景,我们开发了一种无监督的预训练过程来学习数据驱动的上下文嵌入,使 AUC 平均提升 2.1%。
Dec, 2020
本研究利用深度学习算法构建神经网络模型,对具有层级结构的表格时间序列进行表示学习,提供了一种类似于 BERT 的预训练模型以及类似于 GPT 的合成模型,并在信用卡诈骗检测和空气污染浓度预测两个领域应用验证了模型的效果。
Nov, 2020
该研究提出了一种基于图的注意力机制解释方法用于表格数据,使用 Transformer 架构易于实现可解释性,通过对所有层的注意力矩阵进行建模,通过识别出影响模型预测的重要特征组,可以提供多层的基于注意力的解释。
Feb, 2023
使用自监督学习的 TabTransformer 模型,通过描述一种新颖的表格数据训练方法,提高了对分类和数值特征的建模能力。通过对比传统机器学习模型和自监督学习方法,研究结果显示 TabTransformer 在表格数据上的性能优势。
Jan, 2024
通过对大规模的实证研究,本文发现神经网络在结构化表格数据上与决策树具有竞争力,而基于变压器的架构在表格数据集上并不能超过传统 MLP 架构的简化版本。这些发现有助于研究和实践社区在未来的表格数据应用中做出明智的选择。
Feb, 2024
本文提出了一种基于 MLP 的简单网络架构 gMLP,与 Transformer 一样,在关键的自然语言处理和计算机视觉应用中表现不亚于 Transformer。同时,作者进行比较表明,自注意力(self-attention)不是视觉 Transformer 的关键,因为 gMLP 可以实现相同的准确性。}
May, 2021
本文提出了一种利用图结构学习和图神经网络预测表格数据的新方法,通过提出的图对比学习模块、基于 Transformer 的特征提取器和图神经网络来同时学习实例相关性和特征交互,在 30 个基准表格数据集上的全面实验表明,TabGSL 明显优于树结构模型和最近的基于深度学习的表格模型。
May, 2023
该研究论文提出了一种名为转移性表格变压器(TransTab)的新方法,该方法通过将表格中的每个样本(即行)转换为可推广的嵌入向量,然后应用堆叠的变压器进行特征编码,来学习来自多个表格的机器学习模型。该方法探讨了如何在训练和测试期间使用多个具有部分重叠列的表格进行机器学习模型的预测,并对预训练模型的性能进行了分析和比较。
May, 2022
本研究提出了一种新的、高性能和可解释的深度表格数据学习架构 TabNet,采用顺序注意方法在每个决策步骤中选择推理特征,实现了可解释性和更高效的学习。我们证明,在各种非性能饱和表格数据集上,TabNet 胜过其他神经网络和决策树变体,并提供了可解释的特征归因和对全局模型行为的深入认识。最后,我们首次在表格数据上展示了自监督学习,在未标记的数据丰富情况下显著提高了性能。
Aug, 2019
本文提出了一种 Transformer 架构以表示混杂的时间依赖型表格数据,其中数值特征使用一组频函数表示,并且整个网络使用唯一的损失函数均匀训练。
Feb, 2023