BriefGPT.xyz
Ask
alpha
关键词
performance-efficiency trade-offs
搜索结果 - 3
ACL
模块化 Transformer:将 Transformer 压缩为模块化层以进行灵活高效的推理
本文提出了 Modular Transformers 框架,用于灵活的序列到序列模型压缩,通过模块化编码器 - 解码器并进行知识蒸馏,可以实现灵活的压缩比率从 1.1x 到 6x,并且在保持相对性能不变的情况下,可以根据需要灵活组装模块化层
→
PDF
a year ago
I3D:带有输入依赖的动态深度的 Transformer 架构用于语音识别
该研究提出了一种新的 Transformer 编码器模型,并利用输入依赖动态深度 (I3D) 实现了性能 - 效率的良好均衡,该方法可用于压缩模型大小并通过迭代层剪枝处理以提高模型性能,同时对门控概率和输入依赖性进行了分析以更好地理解深度编
→
PDF
a year ago
无监督预训练在语音识别中的性能与效率的折衷
对预训练模型在自动语音识别中的性能和效率进行了研究,提出了一种新的模型架构 SEW,其在不同训练环境下都取得了良好的性能和效率。
PDF
3 years ago
Prev
Next