Jun, 2024

探究变形金刚式语言模型中的动词体类别

TL;DR我们调查了预训练语言模型(PLM)如何编码俄语动词相貌的语法类别。实验表明 BERT 和 RoBERTa 确实在其最后几层对相貌进行编码,并且对添加界定性含义对完美相貌和不完美相貌的影响相反,这与语法一致。我们的研究结果的实际应用是,仅对 BERT 的最后几层进行微调以预测相貌比对整个模型进行微调更快更有效。该模型对于具有界定性提示不明确的替代环境中的相貌预测存在较高的预测不确定性。