关键词distillation
搜索结果 - 137
  • 预训练编码器中蒸馏在缓解后门中的有效性
    PDF4 months ago
  • 小而有趣:基于反馈的幽默提炼方法
    PDF4 months ago
  • 分而治之?您应该压缩 LLM 的哪个部分?
    PDF4 months ago
  • 蒸馏增强的生成式检索
    PDF5 months ago
  • 通过无监督学习在图上学习 MLP 以加速图推理
    PDF5 months ago
  • 单一盆地有多好?
    PDF5 months ago
  • CANDLE: 大型语言模型中的常识推理的迭代概念化与实例提炼
    PDF6 months ago
  • AAAI从 LLMs 中提取复杂推理能力:利用负面数据提炼出来的金子
    PDF6 months ago
  • SHAP-EDITOR: 指导的潜在三维编辑技术,秒级完成
    PDF7 months ago
  • 重新考虑神经语音识别中的熵半环
    PDF7 months ago
  • 分类增量学习的对抗鲁棒性
    PDF7 months ago
  • HoVer-UNet:基于 UNet 的多类细胞核分割的 HoVerNet 加速及知识蒸馏
    PDF7 months ago
  • Distil-Whisper: 大规模伪标记下的鲁棒知识蒸馏
    PDF8 months ago
  • EMNLP个性化蒸馏:为代码生成赋能开源 LLMs 的自适应学习
    PDF8 months ago
  • 利用早期结果来调控蒸馏中的特征偏倚
    PDF8 months ago
  • 自动驾驶中图像表征向点云的蒸馏重新审视
    PDF8 months ago
  • 训练一致性模型的改进技术
    PDF8 months ago
  • 从视觉语言模型中提炼,以改善视觉任务中的 OOD 泛化能力
    PDF9 months ago
  • LLMs 的有效表格推理能力提炼
    PDF9 months ago
  • 文字 - 图像模型:反事实解释的黑盒操作方法
    PDF10 months ago