BriefGPT.xyz
Ask
alpha
关键词
sequence to sequence transformation
搜索结果 - 1
用于资源较少的斯洛文尼亚语的序列到序列预训练
该研究针对资源较少的斯洛文尼亚语,训练了两个不同尺寸的 T5 类型序列到序列模型,并分析其在 11 个任务中的表现,结果显示 SloT5 模型在分类任务上大多落后于单语斯洛文尼亚 SloBERTa 模型,但在生成性任务上很有用。
PDF
2 years ago
Prev
Next