本文提出了一种利用非参数转换器的深度异常检测方法,该方法运用了一种重构框架来能够重构正常样本的被遮蔽特样本并生成异常分数,并在大量表格数据集上进行了评估,优于现有的最优方法,为探索 NPT 在表格数据上的潜力提供了新的思路。
May, 2023
通过逐步增加一个与诸多表格检索模型类似的注意力检索组件,TabR 模型在一组公开基准测试中表现出最佳平均性能,成为几个数据集上的最新技术标准,甚至在最近提出的 “GBDT 友好” 基准测试中超越了 GBDT 模型。
Jul, 2023
本文提出了一种基于自学习的检索增强型 Transformer 模型,其用于自动数据整理以减轻数据分析师的工作量,实现适用于动态数据视图的表格数据的结构化与数据补全,数据的预处理是实现分析或构建机器学习模型时最昂贵和耗时的步骤之一。
Jun, 2023
通过多个实验我们发现自我监督学习在表格数据的异常检测方面并没有改善,这是因为神经网络引入了无关特征,降低了异常检测器的效果,但我们演示了利用神经网络表示的子空间可以恢复性能。
Sep, 2023
通过融合检索机制、预训练和迁移学习方案,可以显著提升表格深度学习领域的性能。
Nov, 2023
基于树模型的注意机制结合与 (tabular data) 表格数据在 (gradient boosting) 梯度提升训练环境中学习,被证明在多个领域与包含树模型和神经网络模型的现有技术相比具有竞争力。
Feb, 2024
通过利用扩散算法的概率模型来进行无监督异常检测,该方法能够有效地学习正常样本的密度,并且在实际数据中展示了优越的检测能力。
使用自监督学习的 TabTransformer 模型,通过描述一种新颖的表格数据训练方法,提高了对分类和数值特征的建模能力。通过对比传统机器学习模型和自监督学习方法,研究结果显示 TabTransformer 在表格数据上的性能优势。
Jan, 2024
通过将 AnoGAN 的原理应用于表格数据,本研究在异常检测领域做出了新的贡献,并在检测以前无法检测到的异常方面取得了有希望的进展。
May, 2024
本论文中,我们研究了一种基于 kNN 记忆的图像字幕生成方法,其中可以从外部语料库中检索知识来辅助生成过程。通过在视觉相似性、差分编码器和 kNN 增强的注意力层之间结合知识检索器来预测基于上下文和从外部内存检索的文本的令牌。在 COCO 数据集上进行的实验结果表明,采用显式的外部存储器可以帮助生成过程并提高字幕质量。我们的工作为更大规模的图像字幕生成模型的改进开辟了新的途径。
Jul, 2022