BriefGPT.xyz
Ask
alpha
关键词
natural language understanding tasks
搜索结果 - 5
ACL
正向陈述形式下的改写提升否定理解能力
负面词是一种常见的语言现象。然而,语言模型在许多自然语言理解任务(如问答和自然语言推理)中都面临负面词的挑战。本文中,我们尝试使用无否定的解释(即,没有负面申述的释义)来制定无差错策略,以使模型对负面词更加强大。关键是,我们的无否定解释是自
→
PDF
25 days ago
离散提示嵌入的连续提示生成
通过离散提示嵌入的方法,我们提出了一种构建连续提示的新方法,以提高连续提示的可解释性和推理准确性,验证了在自然语言理解任务中使用线性组合这些提示会获得更好性能的权重预测模型。
PDF
7 months ago
ACL
IDPG:一种实例相关的提示生成方法
本文提出了一种新的 NLP 迁移学习范式,称为 Prompt Tuning,该范式在模型训练阶段为每个输入实例添加任务特定的提示,并使用 Instance-Dependent Prompt Generation (IDPG) 生成每个输入实
→
PDF
2 years ago
ACL
利用项目反应理论比较测试数据集
本文通过 Item Response Theory 方法对 18 个预训练 Transformer 模型在 29 个 NLP 数据集上进行实验,结果显示 Quoref,HellaSwag 和 MC-TACO 数据集更适合用于区分最先进的 N
→
PDF
3 years ago
大规模预训练语言模型是否能成为更好的讲故事者?
比较已经经过广泛预训练的 OpenAI GPT2-117 和最先进的神经故事生成模型,发现前者在上下文条件、事件排序和使用不寻常词汇方面具有优势,但使用最大似然解码算法时可能会出现重复的低多样性文本。
PDF
5 years ago
Prev
Next