Wei Liu, Haozhao Wang, Jun Wang, Ruixuan Li, Chao Yue...
TL;DR提出了一种 Folded Rationalization 模型,利用文本语义提取将生成器和预测器相融合,改进了传统的两阶段文本理解模型,实现了更好的预测和选择结果,其 F1 得分比现有最新技术提高了 10.3%。
Abstract
Conventional works generally employ a two-phase model in which a generator
selects the most important pieces, followed by a predictor that makes
predictions based on the selected pieces. However, such a two-phase
无监督的理由提取旨在提取简洁而连续的文本片段以支持模型预测,而无需任何已注释的理由。通过使用一种名为 “You Only Forward Once (YOFO)” 的新型单阶段框架,本研究在 BeerAdvocate 和 Hotel Review 数据集上进行实验证明我们的模型在提取理由和进行预测方面比基于 RNP 的模型更准确,与之前最先进的方法相比,在标记级 F1 方面提高了高达 18.4%。同时,我们还对提取的理由和标记衰减策略进行了分析和实验证明 YOFO 可以提取精确而重要的理由,同时删除模型中间部分的不重要的标记。