BriefGPT.xyz
Ask
alpha
关键词
pre-trained transformer networks
搜索结果 - 2
使用低比特 NxM 稀疏压缩预训练 Transformers 以增强自然语言理解
本文提出了新的框架 NxMiFormer,同时使用 ADMM 和 STE-based QAT 进行稀疏化和量化,通过搜索算法找到最优的异构压缩配置,使预处理 Transformer 网络在 NLU 测试中达到 93% 的压缩率并保持 98%
→
PDF
2 years ago
UHH-LT 在 SemEval-2020 任务 12 中:针对攻击性语言检测的预训练 Transformer 网络微调
本文采用预训练 transformer 网络,使用无监督的 MLM 任务进行微调,提高该网络在检测攻击性语言的任务上的性能,取得可观的成果。
PDF
4 years ago
Prev
Next