EMNLPDec, 2022

(心理 -) 语言学特征与 Transformer 模型相遇:改进可解释和可控的文本简化

TL;DR本研究旨在通过建立使用预训练语言模型的(心理)语言学特征的透明度较高的文本简化系统来提高可解释性和可控性,并利用提前设定的十种属性,拓展一种 Seq2Seq TS 模型,使其能够明确控制多个属性。实验证明我们的方法在解释复杂度预测方面表现优异,并且通过明确地将 Seq2Seq 模型的条件限制于十个属性,其性能在领域内外环境中均有显著提高。