跨语言论证挖掘:机器翻译 (和一点投影) 是你所需的一切!
通过将英文数据翻译并投影到目标语言(西班牙语)的方法,我们有效地生成了无需手动干预的带注释数据,并证明了其优于使用大型屏蔽多语言语言模型的零 - shot 跨语言方法。同时,我们还展示了西班牙语中自动生成的数据如何用于改善英语评估设置中的结果。
Jan, 2023
本研究探索了利用多语言 BERT 模型进行传输学习,以识别非英语语言中的论证挖掘任务。结果表明,机器翻译的质量对于论点立场和证据检测任务而言很好,但对于论证质量评估任务来说则不太适合。研究还展示了语言选择和它们之间的关系对结果模型的准确性产生了影响,并提供了一个多语言的人工数据集,以方便进行传输学习的效果评估。
Oct, 2020
本文研究了神经技术在端到端的计算论证挖掘中的应用,将论证挖掘作为基于令牌的依赖解析和基于令牌序列标注的问题,包括多任务学习设置。研究发现,相比于在论证组件层次上操作的模型,将论证挖掘作为依赖解析的形式表现效果不佳;而基于双向长短时记忆网络的本地标注模型在分类场景下表现强劲,并能够捕捉到论证挖掘问题固有的远程依赖关系。另外,多任务学习可以改善模型表现。
Apr, 2017
通过比较深度学习模型在论证挖掘中的性能,本研究提出了一种基于 BERT 架构和 ChatGPT-4 的集成模型 (BERT+ChatGPT-4),该模型在论证分类方面的表现优于其他基于 Transformer 和 LSTM 的模型,并为进一步提高论证分类模型和消除分类错误提供了重要的见解。
Mar, 2024
通过研究多任务学习 (MTL) 在与论证挖掘 (AM) 相关的自然语言处理问题中,尤其是论证组件识别方面是否可以提高性能,发现在主任务训练数据较少的情况下,MTL 表现得特别好(比单任务学习更好),这在 AM 中是一个常见的情况。我们的研究结果挑战了以前的假设,即 AM 数据集之间的概念化是不同的,而且 MTL 对于语义或高级任务是困难的。
Apr, 2018
提出了一种名为 AutoAM 的新型神经模型,用于解决争论挖掘的困难问题。该模型引入了争论组件注意机制,能更好地执行争论挖掘,是一种通用的端到端框架,可以分析无约束的争论结构,并在一个模型中完成争论挖掘的三个子任务。实验结果表明,该模型在两个公共数据集上的多个度量指标上优于现有工作。
Sep, 2023
该研究旨在通过跨语言的 AMR 解析,使用单个模型来捕捉各种语言中句子的核心语义内容,发现用翻译加解析(T+P)的简单方法在几种语言上的表现比最新的全球最佳系统表现更好。
Jun, 2021
本文提出了一种新的句子注释方案,用于在任意网络文本上进行争议搜索的分析,得到的神经网络模型在准确度和 F1 分数上均优于传统的双向 LSTM 模型。
Feb, 2018