EMNLPOct, 2023

CLMSM:面向过程文本预训练的多任务学习框架

TL;DR提出了 CLMSM:一种针对特定领域的连续预训练框架,通过学习大量过程配方来优化两个目标,一是使用硬三元组的对比学习来学习程序实体间的细粒度差异,二是使用新颖的遮蔽 - 步骤建模目标来学习步骤的上下文。通过在三个数据集上进行实体跟踪和动作对齐的下游任务上测试了 CLMSM 的性能,其中一个数据集是不符合预训练数据集的开放域数据集。结果表明,CLMSM 不仅在配方(领域内)上优于基准模型,而且能够推广到开放域过程性自然语言处理任务。