通过复制最近邻居进行标签无关序列标注
本论文提出了一种灵活的结构化预测框架—结构化预测能量网络(SPEN),通过使用一个深层架构来定义候选标签的能量函数,使用反向传播来迭代地优化标签的能量,从而进行预测。该框架能够捕捉标签之间的依赖关系,以及自动学习结构化输出的有区别特征,可以应用于多标签分类等问题,展现出卓越的性能,提供了有关前向和迭代结构化预测之间的基本权衡。
Nov, 2015
本文提出了一种基于神经网络的结构化预测能量网络方法,使用经过训练的神经网络来进行结构化 argmax 推理,同时开发了大边界训练准则以实现对能量函数和推理网络的联合训练。在多标签分类和序列标注等任务中,该方法能够在保持或提高准确性的同时大幅提升推理速度。
Mar, 2018
通过使用通用的基于Bi-LSTM的神经序列标注模型,其应用于广泛的自然语言处理任务和语言,结合从数据中提取的形态、语义和结构提示信息以进行有根据的预测,本研究在8个基准数据集上对其性能进行了评估,其结果在4个数据集上取得了最佳的表现。
Aug, 2018
本篇论文提出了一种适用于基于文本的多标签分类的RNN序列模型适应方法;其提出了一种基于一种原则的“集合概率”表示方法,在此基础上提供了新的训练目标和预测目标进行标签集的概率计算和预测,并且该方法在实验中优于当今的最优方法。
Apr, 2019
本文将解析问题作为多任务学习来探究,通过添加解析范式作为辅助损失, 在其他范式表现中保持一致提高性能, 探讨了一种MTL序列标记模型,以几乎不损失性能和速度的代价解析两个表示,总体结果表明,平均来说,具有属于成分解析的辅助损失的MTL模型比单任务模型高1.14 F1点,而用于依赖解析的辅助损失提升0.62 UAS点。
Jul, 2019
本论文提出了几个高阶能量项来捕捉序列标记中标签之间的复杂依赖关系,并使用卷积、循环和自我注意网络的神经参数化来处理该方法。我们在学习基于能量的推理网络框架中使用此方法,在四个序列标记任务上实现了高性能,同时具有与简单的本地分类器相同的解码速度,并发现高阶能量在嘈杂的数据条件下的效果更好。
Oct, 2020
本文提出了一个无幻觉的框架,以序列标记为例,该框架非常适用于蒸馏,追求计算效率的蒸馏方法有望从这些大模型获得的知识中获益,并在多个序列标记数据集上展现了新的卓越表现,证明了这个框架在少量数据学习场景下进行大模型蒸馏的有用性。
Feb, 2023
本文提出了一种基于主动学习的实用方法,利用部分注释来减少结构标签空间的注释成本,并采用自我训练来将当前模型的自动预测作为未注释子结构的伪标签,通过使用错误估计器自适应地确定部分选择比率来解决选择子结构进行注释的挑战,本文在四个结构预测任务中展示了我们部分注释和自我训练组合的效果。该方法通过公平的比较方案,考虑读取时间,降低了注释成本。
May, 2023
本文提出了一种基于Consistent Dual Adaptive Prototypical (CDAP) network的few-shot sequence labeling方法,其中包含了token-level和span-level的网络,通过consistent loss让两种网络进行相互学习,并采用一致的贪心算法进行推理,实验结果显示该方法达到了三个基准数据集的最新最优结果。
Jul, 2023
采用FISH-DIP方法,通过在低资源环境下优化模型并在序列标注任务中取得高达40%的性能提升,成功地解决了基于大语言模型的序列标注问题中受限于数据量问题的挑战。
Nov, 2023