本研究探讨了语言模型在理解比喻和比喻性语言方面的能力,并提出了新的语言理解任务,发现现有语言模型在理解非字面短语方面的表现还有待于进一步提升。
Apr, 2022
本研究提出了 “形象化语言图像识别” 数据集,探讨了视觉和语言模型理解多模态形象化语言的难点,并借助基准任务和基线模型初步研究了这一问题。结果表明,所有的模型在多模态形象化语言理解上都不如人类。该数据集和基准任务将促进模型更好地理解形象化语言。
Mar, 2023
本文创建了适用于印地语、印尼语、爪哇语、康纳达语、巽他语、斯瓦希里语和约鲁巴语等七种不同语言的比喻推理数据集,并评估了多语言语言模型对于处理比喻语言的能力。研究发现各语言间的比喻表达依赖于文化和区域概念,并提出了需要在模型训练中暴露于更广泛的语言和文化变化中的必要性。
May, 2023
研究发现现有的对话模型在处理比喻和比拟等修辞语言时存在很大的不足,提出利用外部资源将比喻语言转化为字面意思以提高模型鲁棒性的解决方案。
Oct, 2021
集合了五个 RTE 数据集的文章,聚焦于比喻语言,示例超过 12500 个,研究发现现有的 RTE 模型无法很好地捕捉比喻语言的不同方面,无法进行语用推断和世界知识推理。该研究提供了一个挑战性的测试平台来评估 RTE 模型。
Jun, 2021
本研究提出多语言多种修辞语言建模的方法,并在三种常见的修辞语言和七种语言中提供句子级修辞语言检测的基准,实验结果表明该框架优于几种强基线,并可作为其他相关任务的联合建模的蓝图。
本研究提出了一种多阶段深度神经网络架构,利用注意力机制和上下文信息对句子中的习语表达进行定位,通过评估表明该模型能够在各类习语表达的数据集上实现新的最优结果,并具有对未见过的习语表达的识别能力。
测试生成语言模型在理解非组合性的修辞文本中的能力,发现这些模型在生成字面意思上连续性的上下文时稍微好一些,对于成语性上下文的连续性生成能力较为相似,且在不同语言中表现出的性能一致。
Oct, 2023
FLUTE 是一个包含 9000 个各类比喻语言例子的数据集,使用 GPT-3、众包工人和专家注释人员构建。在该研究中,T5 模型 fine-tuned 后的基准性能表明,我们的数据集通过文本解释可以让我们更好地理解比喻语言。
May, 2022
提出了一种基于 BART 的 multi-figurative 语言预训练框架 mFLAG,同时提供了五种常见英文比喻形式的自动生成基准,实验结果表明该方法优于强基线,并对不同语言形式之间的关系进行了一些定性分析和思考。
Sep, 2022