ACLMar, 2022
预训练语言模型中的隐喻:跨数据集和语言的探测和普适性研究
Metaphors in Pre-Trained Language Models: Probing and Generalization Across Datasets and Languages
Ehsan Aghazadeh, Mohsen Fayyaz, Yadollah Yaghoobzadeh
TL;DR该研究使用多语言数据集探索预训练语言模型中所编码的隐喻性信息,结果显示这些模型的中间层主要包含了隐喻性知识,并且该知识在多语言和多数据集中具有泛化性。