关键词compressed representations
搜索结果 - 4
- LLaVolta: 通过分阶段视觉上下文压缩实现高效多模态模型
通过对视觉标记和训练效率的分析研究,提出了一种名为 Visual Context Compressor 的方法,通过压缩视觉标记来提高多模式模型的训练效率,最终实现在图像语言理解和视频语言理解领域性能的提升和训练成本的降低。
- 脑基因转录的压缩表示
脑的体系结构过于复杂,需要使用压缩表示来将其变化投影到一个紧凑且可导航的空间中。通过比较基于线性和非线性方法的压缩表示,我们发现深度自编码器在性能和目标领域的各个指标上都表现出卓越的性能,从而支持将其用作代表人脑转录模式的参考标准。
- 基于信息受限视觉表示的分解领域学习
本研究的模型探究了人类学习复杂视觉信息的方式,包括压缩表示和因素表示,并提出了一种基于改进版本的 β 变分自编码器的人类因素表示学习模型,在学习速度和重构准确性之间进行了信息复杂度的平衡。
- 通过对抗正则化器理解和改善自编码器中的插值
本文提出了一个鼓励自编码器进行中间值重构的惯化机制,并通过一个简单的基准测试任务和经验证明,表明我们的惯化机制极大地改善了在这种情况下的插值能力,并产生对下游任务更有效的潜在代码。