BriefGPT.xyz
大模型
Ask
alpha
关键词
mixture-of-experts framework
搜索结果 - 1
FuseMoE: 灵活模态融合的专家混合变压器
通过混合专家框架和创新的门控函数,本研究介绍了 FuseMoE 模型,该模型可以有效地处理多模态数据、缺失模态以及时间上的不规则和稀疏采样数据,从而改善模型预测性能。通过临床风险预测任务的验证,证实了 FuseMoE 在实际应用中的实用性。
PDF
5 months ago
Prev
Next