基于语料库的隐喻分析与图论方法
该研究实现并比较了名词复合分析的各种统计方法。结果表明,使用概念联想不仅能够实现广泛覆盖,还能提高准确性。基于依赖语法的分析模型比基于最深成分的分析模型更准确,尽管后者在文献中更为普遍。
Apr, 1995
使用基于语料库的单词嵌入模型,处理词汇隐喻并生成一个有序候选诠释列表。该模型通过从依存解析语料库中自动提取主题(如 “时间”)和载体(如 “金钱”)组件的搭配来获取候选的含义,并通过语义向量空间来衡量候选诠释与隐喻组件之间的相似度。最后,聚类算法去除了语义相关的重复诠释,从而使其他候选诠释具有更高的排名。在不同的语义标注数据集上进行评估,取得了令人鼓舞的初步结果。
Oct, 2020
这项研究是基于大规模语料库的分析,验证了有关动词隐喻的一些存在观点,结果显示,作为隐喻使用的动词的直接宾语往往具有较低的具体性、可形象化和熟悉度,隐喻更容易在情感和主观句子中使用。
Apr, 2024
我们提出了 Meta4XNLI,这是一个包含西班牙语和英语隐喻注释的新型并行数据集,用于隐喻检测和解释的任务。通过利用我们提出的语料库,我们通过一系列的单语和跨语言实验来研究语言模型对隐喻的识别和理解能力。我们审查了结果并进行了错误分析,以便理解这些非字面表达如何影响模型的性能。此外,平行数据为研究这些语言之间的隐喻可转移性和翻译对多语言注释资源发展的影响提供了许多潜在机会。
Apr, 2024
本研究通过使用 MIPVU 方法并创建 CoMeta 数据集,提出了一种进行隐喻检测的具有竞争力的多语种和单语种大型语言模型的方法,同时在英语和西班牙语之间进行了跨语言实验。
Oct, 2022
本文提出,语境特征对于更好的隐喻识别非常重要,我们基于多种文档嵌入方法对话语及其周围环境进行表征,使用简单的梯度增强分类器,在不使用其他系统采用的复杂隐喻特定特征或深度网络体系结构的情况下,达到了几乎最先进的 2018 年 VU 阿姆斯特丹隐喻识别任务数据集的结果,并进一步通过质性分析证实了在隐喻处理中需要更广泛的上下文环境。
Apr, 2019
提出了基于模型和训练集的字面注释,比较上下文意义以识别隐喻,并成功实现对基本注释目标的检测的一种新颖的隐喻检测方法,验证了对于隐喻检测建模基本意义的重要性和有效性。
May, 2023
该研究使用多语言数据集探索预训练语言模型中所编码的隐喻性信息,结果显示这些模型的中间层主要包含了隐喻性知识,并且该知识在多语言和多数据集中具有泛化性。
Mar, 2022
该研究对深度学习在隐喻识别任务中的知识注入应用进行了全面的综述和总结,包括主流知识和知识注入原则、数据集、评估指标和基准模型,并探讨了当前知识注入方法面临的问题和未来研究方向。
Aug, 2023
本研究旨在基于概念隐喻理论通过控制生成过程并使用两种方法 (词汇级和序列生成模型) 生成有意义的隐喻表达。经过自动化和人工评估,实验结果表明,无监督的 CM-Lex 模型与最新的深度学习隐喻生成系统具有竞争力;而 CM-BART 优于其他所有模型。
Jun, 2021