BriefGPT.xyz
Ask
alpha
关键词
pretrained transformer-based models
搜索结果 - 2
JaCoText:用于 Java 代码文本生成的预训练模型
本文介绍了一种基于 Transformer 神经网络的模型 JaCoText,旨在将自然语言文本生成 java 源代码。通过在强大的预训练模型上初始化,探索我们的 java 数据集上的额外预训练,以及在训练中结合单模态和双模态数据的实验,以
→
PDF
a year ago
EMNLP
享受显著性:基于单词显著性的 Transformer 模型的更好及忠实解释
本文探讨了如何提高基于预训练 Transformer 的模型的预测性能以及其对于预测理由的准确性,并提出了一种名为 SaLoss 的辅助损失函数,该函数利用 TextRank 方法从训练数据中提取信息以辅助 BERT 进行下游任务的微调,实
→
PDF
3 years ago
Prev
Next