本文研究了两种非组合式比喻语言 (成语和比喻) 的解释,并提出了基于人类策略的知识增强模型,从而改善了区分和生成任务的表现,进一步缩小了与人类表现的差距。
Aug, 2021
研究发现现有的对话模型在处理比喻和比拟等修辞语言时存在很大的不足,提出利用外部资源将比喻语言转化为字面意思以提高模型鲁棒性的解决方案。
Oct, 2021
本文创建了适用于印地语、印尼语、爪哇语、康纳达语、巽他语、斯瓦希里语和约鲁巴语等七种不同语言的比喻推理数据集,并评估了多语言语言模型对于处理比喻语言的能力。研究发现各语言间的比喻表达依赖于文化和区域概念,并提出了需要在模型训练中暴露于更广泛的语言和文化变化中的必要性。
May, 2023
通过评估 GPT-4,一个尖端的大型语言模型,在解释塞尔维亚诗歌中提取的新颖文学隐喻时所提供的自然语言解释能力,它未展现出之前接触过这些隐喻的迹象,但提供了详细而深刻的解释,被盲审的人员(不知道涉及 AI 模型的事实)将 GPT-4 生成的隐喻解释评为优于来自一组大学生的解释,这些结果表明 GPT-4 等大语言模型已经获得了解释复杂新颖隐喻的新兴能力。
Aug, 2023
本研究提出了 “形象化语言图像识别” 数据集,探讨了视觉和语言模型理解多模态形象化语言的难点,并借助基准任务和基线模型初步研究了这一问题。结果表明,所有的模型在多模态形象化语言理解上都不如人类。该数据集和基准任务将促进模型更好地理解形象化语言。
Mar, 2023
本研究提出多语言多种修辞语言建模的方法,并在三种常见的修辞语言和七种语言中提供句子级修辞语言检测的基准,实验结果表明该框架优于几种强基线,并可作为其他相关任务的联合建模的蓝图。
通过使用隐喻语言模型掩盖字面意思从而生成比喻性的解释,且该方法不仅关注动词,还包括名词和形容词。 这种方法在元数据的分类中实现了比人工方法更高的水平。
Oct, 2022
该研究使用多语言数据集探索预训练语言模型中所编码的隐喻性信息,结果显示这些模型的中间层主要包含了隐喻性知识,并且该知识在多语言和多数据集中具有泛化性。
Mar, 2022
提出了一种基于 BART 的 multi-figurative 语言预训练框架 mFLAG,同时提供了五种常见英文比喻形式的自动生成基准,实验结果表明该方法优于强基线,并对不同语言形式之间的关系进行了一些定性分析和思考。
Sep, 2022
通过研究问答模型对比喻文本的鲁棒性,本研究提出了一个包含 1000 个问答问题的数据集 FigurativeQA,展示了当回答含有比喻语境的问题时,基于 BERT 的问答模型相较于非比喻语境会出现性能下降的现象,同时进一步将比喻语境简化为非比喻语境有助于提高模型性能,研究发现基于链式思维提示的 ChatGPT 是最优模型,可以构建具有比喻语言理解能力的更鲁棒的问答模型。
Sep, 2023