利用因果新闻语料库进行事件因果识别 -- 共享任务 3,CASE 2022
本文介绍了我们在 CASE-2022 下共享任务 Subtask 2 的提交,即使用 Casual News Corpus 进行事件因果性识别。我们使用预先训练的自回归语言模型 T5,通过迭代方法识别句子中的 cause-effect-signal spans。尽管训练样本非常少,仅有 160 个样本,但我们的方法在比赛中表现出竞争力,排名第二。此外,我们表明假设 cause→effect 或 effect→cause 顺序可以获得类似的结果。
Sep, 2022
介绍了 FinCausal 2020 共享任务和相关思路,对参与的系统和结果进行了讨论,该任务提供了两个子任务,即二元分类任务和关系抽取任务。共有 16 个团队参赛,在两个任务中提交了 runs,其中 13 个团队的系统描述论文做出了贡献。该研讨会与 “金融叙事处理和多语种金融摘要(FNP-FNS 2020)” 联合研讨会相关联,该会议于 2020 年 9 月 12 日在西班牙巴塞罗那举行,属于第 28 届国际计算语言学会议(COLING '2020)
Dec, 2020
该论文研究了利用基于 BERT 模型的自动化抽取技术进行抗议新闻因果关系检测的方法,提出了利用自定义的交叉熵损失函数的方法,实验结果表明 BERT-based-uncased 在 Causal News Corpus 数据集上的 F1 分数达到了 0.8501。
Oct, 2022
通过基于预训练变换器、序列标注和合成数据增强的系统,我们在 Subtask 1 中排名第三,在 F1 得分为 72.8 的情况下赢得了 Subtask 2,较第二名系统高出 13 个百分点。
Dec, 2023
本文描述了我们在 CASE-2022 中参加亚任务 1: 使用正式新闻语料库的事件因果关系识别。我们通过利用一组简单但互补的技术,在少量有注释的示例(即少数派配置)上对语言模型(LM)进行微调,从而解决了因果关系识别(CRI)任务。我们比较了这种方法与在整个数据集上训练的集成技术的表现。我们的表现最佳的提交仅使用了每类 256 个实例的微调,占所有可用数据的 15.7%,而且具有次佳的精度(0.82),第三高的准确度(0.82),F1 分数(0.85)非常接近胜利团队所报道的(0.86)。
Sep, 2022
本文提出了一种阅读理解模型和模型微调方法,并使用基于语言模型的数据增强技术和高效的 beam-search 后处理策略,达到了 CASE 竞赛中基准模型的平均 F1 得分 54.15,并获得了第一名。
Oct, 2022
该研究提出了一种用于事件因果关系注释的注释模式,为此构建了一个名为 Causal News Corpus(CNC)的语料库,并使用神经网络在测试集上获得了 81.20% F1 得分,CNC 是对外部语料库可转移的,也是文本挖掘研究人员的有价值资源。
Apr, 2022
本文介绍了我们参加 EMNLP 2022 的 CASE 研讨会的情况,利用自我训练方法解决了事件因果关系检测的问题,并验证了在不同训练集数量下模型性能的变化,结果表明自我训练可以显著提高模型性能,代码可在此 https 链接中公开获取。
Nov, 2022
该研究介绍了 CASE 2022 共享任务 1 的结果,重点关注跨语言抗议事件检测和多语言文档分类模型的开发,提出了一种基于集合模型的零 - shot 学习方案,并在 CASE2021 测试数据上表现出卓越的性能。
Nov, 2022
提出 UniCausal 标准化数据集作为因果文本挖掘的基准,包括因果序列分类、原因 - 结果跨度检测和因果对分类等三项任务,并利用 BERT 预训练模型作为初始基准测试,取得了不同任务的二元 F1 分数,为研究人员提供了一个有利的研究平台。
Aug, 2022