ACLApr, 2024

基于顺序的程序化文本理解的预训练策略

TL;DR我们提出了一种基于序列的预训练方法,以加强自然语言处理中的程序理解。我们的工作是首次比较了几种 “以顺序为监督” 的 Transformer 预训练方法,并显示这些方法在两个下游实体跟踪数据集(食谱领域的 NPN-Cooking 数据集和开放领域的 ProPara 数据集)上相对于基准模型和最新方法有了改进的结果。我们的方法解决了需要预测过程步骤中实体状态的非平凡的实体跟踪任务,这需要理解步骤的顺序。这些方法在 NPN-Cooking 和 ProPara 数据集上相对于最佳基准模型分别在度量指标上提高了 1.6%和 7-9%。