通过显式基本含义建模实现隐喻检测
使用预训练语境感知模型和语言隐喻鉴别理论,我们提出了一种新型的隐喻检测模型 MelBERT,成功在四个基准数据集中超越了强大的基线模型。
Apr, 2021
本文提出端到端的神经模型,用于检测上下文中拟喻词的使用。结果显示,相较于先前使用更受限的语言环境的研究,针对完整句子进行操作的相对标准的 BiLSTM 模型在这种情况下表现良好。这些模型在现有的动词拟喻检测基准上建立了一个新的最优状态,并在同时预测运行文本中的所有词汇的拟喻性能方面显示了强大的性能。
Aug, 2018
该研究提出了一种基于 RoBERTa 的隐喻检测模型 ContrastWSD,它结合了隐喻识别过程(MIP)和词义消歧(WSD),通过提取和对比单词的上下文意义和基本含义,确定其是否在句子中以隐喻方式使用。通过利用来自 WSD 模型的词义,我们的模型增强了隐喻检测过程,并优于仅依赖上下文嵌入或仅集成基本定义和其他外部知识的其他方法。我们在各种基准数据集上评估了我们的方法,并与强基线进行了比较,表明了在推进隐喻检测方面的有效性。
Sep, 2023
通过使用预训练的语言模型,我们可以提供上下文感知的句子嵌入来检测句子中的多词表达是否是惯用用法,从而更好地理解多词表达的惯用含义。
Apr, 2022
我们提出了一种以两个主要模块为结构的隐喻检测架构:期望组件在给定上下文的情况下估计文字期望的表示,实现组件计算上下文中实际词义的表示。整体架构经过训练学习期望 - 实现(ER)模式,对于三个隐喻数据集的评估(分别为分布内、分布外和新颖隐喻泛化),所提出的方法显示出与现有技术相当或更好的结果。通过 ER 模型的集成,还可以提高隐喻检测的准确性。
Nov, 2023
本文提出,语境特征对于更好的隐喻识别非常重要,我们基于多种文档嵌入方法对话语及其周围环境进行表征,使用简单的梯度增强分类器,在不使用其他系统采用的复杂隐喻特定特征或深度网络体系结构的情况下,达到了几乎最先进的 2018 年 VU 阿姆斯特丹隐喻识别任务数据集的结果,并进一步通过质性分析证实了在隐喻处理中需要更广泛的上下文环境。
Apr, 2019
该研究使用多语言数据集探索预训练语言模型中所编码的隐喻性信息,结果显示这些模型的中间层主要包含了隐喻性知识,并且该知识在多语言和多数据集中具有泛化性。
Mar, 2022
通过知识蒸馏和提示学习,我们设立了一种为隐喻检测任务设计的提示学习模板,使得模型能够准确推断目标词的上下文含义,并使用先验知识的教师模型生成有意义的软标签,从而使得模型能够更好地应对数据稀疏性和过度自信的问题,并在多个数据集上取得了最新的实验结果。
Mar, 2024
本研究通过使用 MIPVU 方法并创建 CoMeta 数据集,提出了一种进行隐喻检测的具有竞争力的多语种和单语种大型语言模型的方法,同时在英语和西班牙语之间进行了跨语言实验。
Oct, 2022