BriefGPT.xyz
Ask
alpha
关键词
jensen-shannon knowledge distillation
搜索结果 - 1
基于狄利克雷生成的排练的持续学习
近期的数据驱动任务导向对话系统在增量学习方面存在计算约束和耗时的问题,而连续学习试图通过避免密集的预训练来解决此问题,但它面临的问题是灾难性遗忘。本文提出了 Dirichlet 连续学习(DCL),这是一种新颖的基于生成的排练策略,用于连续
→
PDF
10 months ago
Prev
Next