EDDA:一种用于零样本立场检测的编码器 - 解码器数据增强框架
本文引入了一项新的任务,即实体之间(E2E)的立场检测,旨在于能够在研究相互作用时识别实体及其立场;通过引入一种新的生成框架,强化模型,以及进一步引入图编码器来概括实体活动以及周围的外部知识,我们实验后得出在 E2E 立场检测方面,相对较强的效果。此外,我们还发现,E2E 立场检测对于理解媒体引用和立场文化以及推断实体意识形态非常有用。
Nov, 2022
通过提出易分布数据增强(EDDA)和类型特定的相似词替换(TSSR)两种扩展方法,利用语义词上下文信息和词性标签进行词替换和增强,我们展示了这些方法在低资源语言的两个代表数据集上通过 F1 分数度量的实用性,证明了增强数据可以在低资源环境中提高分类性能。
Sep, 2023
Zero-shot stance detection enhanced by logically consistent chain-of-thought and supplementary external knowledge outperforms traditional supervised methods without relying on labeled data.
Dec, 2023
本文提出了一种名为 AEDA 的数据增强技术,通过在原始文本中随机插入标点符号来改善文本分类任务的性能,相比于 EDA 方法,AEDA 更易于实现,而且在句子中改变单词位置时保留词序,从而导致更好的泛化性能。实验结果表明,在使用 AEDA 增强数据训练的情况下,该模型在五个数据集中表现出优异的性能。
Aug, 2021
我们提出了 EDZ-DA 框架,利用大型语言模型自动捕捉不同领域之间的关系并生成对话数据,通过增加对话复杂性来增强模型在共指槽跟踪方面的能力,并通过改变槽值排列顺序和解决不完整值生成问题来改善性能,实验结果表明我们的方法优于多个强基线数据增强方法在 MultiWOZ 上。
Jun, 2024
本研究提出了一种基于编码器 - 解码器框架的语义增强模型来识别低质量的场景文本,它使用显式的全局语义信息,并将现有的 ASTER 方法作为示例,实验证明了该模型对低质量文本图像更加鲁棒,并在多个基准数据集上取得了最先进的结果。
May, 2020
提出了一种名为 EnTDA 的数据增强方法,通过添加、删除、替换和交换实体来打破实体间的依赖关系,并采用多样性 beam search 策略增加数据的多样性,以提高在 13 个 NER 数据集上的表现。
Oct, 2022
提出 EDA 方法来增强文本分类任务的性能,包括四种简单但强大的数据增强操作:同义词替换、随机插入、随机交换和随机删除,在五个文本分类任务中,展示了 EDA 对于卷积神经网络和循环神经网络性能提升的效果。EDA 特别适用于小型数据集。使用 EDA 方法在 50%可用的训练集上训练时,平均而言可以达到使用全部数据正常训练的准确性水平。此外,还进行了大量消融研究,并提供了实际使用的参数建议。
Jan, 2019
本文提出了一种站立检测方法,该方法利用语法表达式模式来捕获可转移的知识,可以有效地适应未见目标,最终采用注意机制来预测先前未见目标并在四个基准数据集上表现出高于竞争基线的效果。
Oct, 2022