EMNLPNov, 2022

简洁:一个被忽视的语言任务

TL;DR本研究报道了一项新颖的训练模型,以让句子更加简洁。我们定义了这项任务,并展示它与其他相关任务(如摘要和简化)不同。通过发布两个由两个和五个人类注释者注释的测试集来进行评估。我们证明简洁性是一项难以完成的任务,而这项任务经常无法使用零 - shot 设置和大型神经语言模型。鉴于这些方法的局限性,我们提出了一种基于来回翻译的合成数据生成方法。使用这些数据,从头开始训练 Transformers 或对 T5 模型进行微调,可以得到我们最强的基线,可以通过在从多注释机器翻译测试集派生的人工简洁数据集上进行微调来进一步改进。