本文提出端到端的神经模型,用于检测上下文中拟喻词的使用。结果显示,相较于先前使用更受限的语言环境的研究,针对完整句子进行操作的相对标准的BiLSTM模型在这种情况下表现良好。这些模型在现有的动词拟喻检测基准上建立了一个新的最优状态,并在同时预测运行文本中的所有词汇的拟喻性能方面显示了强大的性能。
Aug, 2018
使用基于语料库的单词嵌入模型,处理词汇隐喻并生成一个有序候选诠释列表。该模型通过从依存解析语料库中自动提取主题(如“时间”)和载体(如“金钱”)组件的搭配来获取候选的含义,并通过语义向量空间来衡量候选诠释与隐喻组件之间的相似度。最后,聚类算法去除了语义相关的重复诠释,从而使其他候选诠释具有更高的排名。在不同的语义标注数据集上进行评估,取得了令人鼓舞的初步结果。
Oct, 2020
使用预训练语境感知模型和语言隐喻鉴别理论,我们提出了一种新型的隐喻检测模型MelBERT,成功在四个基准数据集中超越了强大的基线模型。
Apr, 2021
该研究使用多语言数据集探索预训练语言模型中所编码的隐喻性信息,结果显示这些模型的中间层主要包含了隐喻性知识,并且该知识在多语言和多数据集中具有泛化性。
Mar, 2022
本文使用思维导向提示将概率模型结构引入了大型语言模型的上下文学习中,以推断潜在变量并选择合适的隐喻释义,从而改进了模型的模仿能力。
Sep, 2022
提出了基于模型和训练集的字面注释,比较上下文意义以识别隐喻,并成功实现对基本注释目标的检测的一种新颖的隐喻检测方法,验证了对于隐喻检测建模基本意义的重要性和有效性。
May, 2023
该研究提出了一种基于RoBERTa的隐喻检测模型ContrastWSD,它结合了隐喻识别过程(MIP)和词义消歧(WSD),通过提取和对比单词的上下文意义和基本含义,确定其是否在句子中以隐喻方式使用。通过利用来自WSD模型的词义,我们的模型增强了隐喻检测过程,并优于仅依赖上下文嵌入或仅集成基本定义和其他外部知识的其他方法。我们在各种基准数据集上评估了我们的方法,并与强基线进行了比较,表明了在推进隐喻检测方面的有效性。
Sep, 2023
通过忽略潜在的比喻表达或其出现的上下文,本文展示了现有的比喻识别数据集如何被篡改。我们在各种数据集和环境中测试了这一假设,并表明基于语言模型的比喻识别系统在没有完整信息的情况下与使用完整上下文信息的系统具有竞争力,这是由于构建此类数据集的过程引入了对正面和负面类别的不希望的偏倚。最后,我们在从自然语料库中精心抽样且没有存在该偏倚的数据集上测试了同样的假设,使得这些数据集更具挑战性和可靠性。
Nov, 2023
通过知识蒸馏和提示学习,我们设立了一种为隐喻检测任务设计的提示学习模板,使得模型能够准确推断目标词的上下文含义,并使用先验知识的教师模型生成有意义的软标签,从而使得模型能够更好地应对数据稀疏性和过度自信的问题,并在多个数据集上取得了最新的实验结果。
Mar, 2024
这项研究是基于大规模语料库的分析,验证了有关动词隐喻的一些存在观点,结果显示,作为隐喻使用的动词的直接宾语往往具有较低的具体性、可形象化和熟悉度,隐喻更容易在情感和主观句子中使用。
Apr, 2024