BriefGPT.xyz
大模型
Ask
alpha
关键词
pretrained transformers
搜索结果 - 23
将预训练 Transformer 适应于格上,以进行口语语言理解
本篇论文旨在将 Transformer 预训练模型适应于格输入以执行口语理解任务,并在 ATIS 基准数据集上进行了实验,结果表明,将预训练的 Transformers fine-tuning 用于格输入比用于 1-best 结果有了显著改
→
PDF
4 years ago
EMNLP
预训练 Transformer 的任务无关数据增强效果如何?
本文通过对 BERT、XLNet 和 RoBERTa 共 3 个方面、5 个分类任务和 6 个数据集上应用非针对特定任务的数据增强技术(easy data augmentation 和 back-translation)的实验研究,发现之前
→
PDF
4 years ago
ACL
预训练转换器提高超出分布鲁棒性
本文通过构建具有现实分布变化的新的鲁棒性基准,系统地测量了七个 NLP 数据集的预训练 Transformers 的 OOD 泛化能力。研究结果表明,Pretrained Transformers 的性能下降显著较小,在检测异常或 OOD
→
PDF
4 years ago
Prev
Next