Nov, 2023

只需一次前向传递:在单个前向传递中的预测和合理化

TL;DR无监督的理由提取旨在提取简洁而连续的文本片段以支持模型预测,而无需任何已注释的理由。通过使用一种名为“ You Only Forward Once (YOFO)”的新型单阶段框架,本研究在BeerAdvocate和Hotel Review数据集上进行实验证明我们的模型在提取理由和进行预测方面比基于RNP的模型更准确,与之前最先进的方法相比,在标记级F1方面提高了高达18.4%。同时,我们还对提取的理由和标记衰减策略进行了分析和实验证明YOFO可以提取精确而重要的理由,同时删除模型中间部分的不重要的标记。