该研究对深度学习在隐喻识别任务中的知识注入应用进行了全面的综述和总结,包括主流知识和知识注入原则、数据集、评估指标和基准模型,并探讨了当前知识注入方法面临的问题和未来研究方向。
Aug, 2023
本文介绍了一种使用神经网络和上下文调节(contextual modulation)识别抽象比喻表达方式的方法,并在基准数据集上取得了最新的最佳性能。
Oct, 2020
本文提出了一个多任务深度学习框架来同时检测夸张和隐喻,在使用 HYPO 和 HYPO-L 两个夸张数据集和 TroFi 和 LCC 两个隐喻数据集进行的实验中,证明了隐喻和夸张对于彼此检测是有帮助的,而且证实了多任务学习方法在隐喻和夸张检测中的优越性。
May, 2023
本文提出了一种基于 Graph Neural Networks 的新型深度学习方法,以解决如何预测大型演化网络中链接出现的问题,特别地,预测与 AI 相关的主题之间的链接。实验结果表明,使用此方法能够有效地识别出节点的吸收和密集子图的合并两种模式,且模型具有较高的预测准确性。
Jan, 2022
本文提出,语境特征对于更好的隐喻识别非常重要,我们基于多种文档嵌入方法对话语及其周围环境进行表征,使用简单的梯度增强分类器,在不使用其他系统采用的复杂隐喻特定特征或深度网络体系结构的情况下,达到了几乎最先进的 2018 年 VU 阿姆斯特丹隐喻识别任务数据集的结果,并进一步通过质性分析证实了在隐喻处理中需要更广泛的上下文环境。
Apr, 2019
本文介绍了一种针对卷积神经网络模型中图像嵌入优化的方法,用于突出显示贡献最大的图像区域,可用于相似性学习领域的问题。我们还将该方法推广至使用不同池化策略的嵌入网络,并提供了一种支持查询图像中物体或子区域的图像相似性搜索的简单机制。
Jan, 2019
本文提出端到端的神经模型,用于检测上下文中拟喻词的使用。结果显示,相较于先前使用更受限的语言环境的研究,针对完整句子进行操作的相对标准的 BiLSTM 模型在这种情况下表现良好。这些模型在现有的动词拟喻检测基准上建立了一个新的最优状态,并在同时预测运行文本中的所有词汇的拟喻性能方面显示了强大的性能。
Aug, 2018
使用预训练语境感知模型和语言隐喻鉴别理论,我们提出了一种新型的隐喻检测模型 MelBERT,成功在四个基准数据集中超越了强大的基线模型。
Apr, 2021
通过知识蒸馏和提示学习,我们设立了一种为隐喻检测任务设计的提示学习模板,使得模型能够准确推断目标词的上下文含义,并使用先验知识的教师模型生成有意义的软标签,从而使得模型能够更好地应对数据稀疏性和过度自信的问题,并在多个数据集上取得了最新的实验结果。
Mar, 2024
本文针对社交媒体上短文本语言特征多变不足以支持作者验证的问题,提出了一种基于 Hierarchical Siamese 神经网络的算法,通过学习神经特征和可视化决策过程可以有效地进行作者验证,并在大规模的亚马逊评论数据集上进行实验,结果表明 Siamese 神经网络模型优于传统的基于语言特征的方法。
Oct, 2019