通过相关的可解释触发器和关系名称实现零样本对话关系提取
本文介绍了 Zero-RTE 任务及其解决方案 —— 使用结构化的提示模板来生成合成关系样本,并使用三元组搜寻解码方法来克服在句子中提取多个关系三元组的限制。实验表明,RelationPrompt 对于 Zero-RTE 任务和零样本关系分类非常有效。
Mar, 2022
通过转换为推论任务并且使用预训练的文本推论引擎,我们能够减少标注大量实例所需的成本,实验结果表明,我们的方法在少量示例情况下可达到更好的性能。
Sep, 2021
对话关系提取(DRE)在提取对话中两个参数之间的关系方面比标准的关系提取更具挑战性,该研究发现大语言模型(LLMs)能够显著缓解现有 DRE 方法中的两个问题,通过提高模型规模可以显著提升 DRE 性能,对长且稀疏的多轮信息进行有效捕捉,并在全局对话和部分对话设置下均表现出竞争力强、制胜优势的性能。
Apr, 2024
本文提出一种零 - shot 关系抽取的方法,通过将实体的描述翻译成问题,并使用生成的问题来生成正确的实体,在不需要使用黄金问题模板的情况下超过了以前的最先进技术。
Jan, 2023
本论文将关系抽取问题转化为回答简单的阅读理解问题,可以利用深度学习中的神经网络技术,使用关系特定的众包问题与遥感监督结合的大规模训练集进行建模,并可以在测试时抽取新的关系类型,实现了零样本学习。通过对维基百科的插槽填充任务的实验表明,该方法可以高精度地推广到已知关系类型的新问题,并保持零样本学习到尚未见过的关系类型,这为未来的工作设定了标杆。
Jun, 2017
本文提出了一种基于 BERT 的多任务学习模型(ZS-BERT),通过零样本关系抽取解决新出现关系的抽取问题,实验结果表明该方法相比于现有的方法在 F1 分数上至少提高了 13.54%。
Apr, 2021
本文介绍了第一个人工注释的基于对话的关系抽取(RE)数据集 DialogRE,用于支持在对话中预测两个参数之间的关系,尤其是涉及多个句子的跨句子 RE 任务,并基于分析指出演讲者相关信息在该任务中发挥了关键作用。在提出一个新的评估指标以评估在会话环境中进行 RE 方法的性能之后,本文研究了几种常用的 RE 方法在 DialogRE 数据集上的表现,并通过实验证明,最佳表现模型的扩展可以在标准和会话环境的评估设置中都取得收益。
Apr, 2020
本研究提出了一种基于图注意力网络的对话关系提取方法,该方法能够有效捕捉对话中不同实体对之间的关系和解释人际关系,从而使得对话数据更好地用于构建知识图谱和开发智能对话系统。
Sep, 2020
本研究采用半监督算法 D-REX,以中间步骤的关系和实体特定解释为桥梁,将关系提取视为重新排序任务,并在对话关系提取数据集上进行评估,取得了 13.5% 的最优 F1 得分。
Sep, 2021