Feb, 2024

使用 TabPFN 进行上下文数据蒸馏

TL;DRTabPFN 通过采用 in-context data distillation 方法,优化了原有模型的上下文效果,使其能够处理大规模数据集,从而在 48 个大型表格数据集上展示了比基于树模型和现代深度学习方法更强的性能。