BriefGPT.xyz
Ask
alpha
关键词
mixture of experts (moe)
搜索结果 - 3
低维混合专家模型在医学图像分割中的应用
在医学图像分割领域的持续学习任务中,我们提出了一种使用数据特定的专家组(MoE)结构解决新任务或类别的问题的网络,以确保网络参数对先前任务的影响最小化,并通过引入低秩策略显著降低引入附加结构所带来的内存开销。在多个数据集上进行的广泛实验证明
→
PDF
17 days ago
一种基于专家混合的三维人体动作预测方法
本研究通过复制现有的最先进(SOTA)时空转换器模型,以尽可能符合计算限制,并批判性评估现有模型架构的优势和改进机会,以解决实时推理速度挑战,并在空间 - 时间 (ST) 关注层中引入专家混合 (MoE) 块来提高模型容量和降低推理成本。
PDF
2 months ago
基于课程的通用技能模仿
本研究提出一种基于课程学习和 MoE 的模仿学习方法,用于从人类多样化的演示中教授机器人控制技能,并在复杂机器人控制任务中显著优于当前最先进的方法。
PDF
a year ago
Prev
Next