BriefGPT.xyz
大模型
Ask
alpha
关键词
transformer pre-training
搜索结果 - 2
预训练的 Transformer 揭示人类移动数据中有意义的模式
基于国家级无标签人类流动数据进行事先训练的转换器能够通过微调形成对目标地理区域及其相应流动模式的深入理解,我们的预先训练嵌入在涵盖与人类流动直接和间接相关的广泛概念方面表现出良好性能,包括地理位置、距离、行政区划和土地覆盖等,通过大量实证分
→
PDF
a month ago
EMNLP
使用句子级目标预训练 Transformer 模型进行答句选择
本文提出了三种新的句子级别的 transformer 预训练目标,以提高 transformer 模型在答案句子选择和文档检索任务中的表现,并减轻对大量标记数据的需求。实验证明,我们的预训练 transformer 模型在三个公共 AS2
→
PDF
2 years ago
Prev
Next