BriefGPT.xyz
Ask
alpha
关键词
fine-tuning data
搜索结果 - 2
使用 ChatGPT 进行实体匹配
本文探讨使用 ChatGPT 作为传统 Transformer 模型的更健壮、训练数据更有效的替代方法,对实体匹配任务进行实验,证明 ChatGPT 表现竞争力与经过 fine-tuned 的 RoBERTa 模型相当,达到 83%的 F1
→
PDF
a year ago
ACL
预训练的多语言序列到序列模型:底资源语言翻译的希望?
通过在 10 种语言上进行完备实验,考虑了五个因素:(1)微调数据量,(2)微调数据中的噪声,(3)模型预训练数据量,(4)领域不匹配的影响以及(5)语言类型学,我们试图确定预训练多语言序列到序列模型(如 mBART)对翻译低资源语言有何贡
→
PDF
2 years ago
Prev
Next