BriefGPT.xyz
Ask
alpha
关键词
pretrained transformer language models
搜索结果 - 3
EMNLP
高效 Transformer 知识蒸馏:绩效评估
对高效注意力转换模型进行知识蒸馏的模型压缩评估,并通过新的长上下文命名实体识别数据集 GONERD 验证了高效注意力转换模型在保持原始模型性能的同时降低推理时间的效果。
PDF
7 months ago
ACL
Twi 的上下文文本嵌入
本研究提出了第一例为 Twi 或 Akan 开发的预训练变压器语言模型,为命名实体识别、神经机器翻译、情感分析和词性标注等应用领域的进展铺平了道路。通过 ABENA 和 BAKO 等四种不同类型的 BERT 模型,此项研究对 Akuapem
→
PDF
3 years ago
EMNLP
Byte Pair Encoding 不适用于语言模型预训练
分析使用不同词汇分割方法,如 BPE 和 unigram 在提前训练 Transformer 语言模型时对其细微的影响,并比较它们的效果,在任务绩效中发现 unigram 的方法匹配或优于 BPE,建议开发者在预训练时采用 unigram
→
PDF
4 years ago
Prev
Next