关键词sequence labeling tasks
搜索结果 - 7
- 分解促使:揭示英语为中心的大型语言模型中的多语言语言结构知识
该研究介绍了分解提示方法,用于探究英语为中心的大型语言模型在序列标注任务中对语言结构的理解能力,其研究结果表明分解提示优于迭代提示基线,在零样本和少样本情况下具备更高的效用和效率,并发现评估方法和提示中的指令使用对结果有影响,同时发现英语为 - 稳健语言模型的提示扰动一致性学习
大型语言模型对于自然语言处理任务表现出色,但在序列标注任务(如意图分类和槽位填充)中的表现明显落后于判别模型。本文通过 fine-tuning 大型语言模型并使用一种有效的减小性能下降的方法,Prompt Perturbation Cons - 序列标注的全局上下文机制
使用 BERT 嵌入 BiLSTM,发现将整个句子表示策略性地集成到每个单元格的句子表示中,可显著提高序列标注任务的 F1 得分和准确性。在包含 9 个数据集的序列标注任务中,涵盖了命名实体识别(NER)、词性标注和端到端基于方面的情感分析 - 基于跨度序列标注的低成本众包:工人选择与数据增强
本研究提出了一种新的工人选择算法,利用组合多臂老虎机方法和数据增强方法来提高序列标注任务中的注释质量和降低成本,测试结果表明该算法的效率得到了显著提高。
- 无监督数据增强:天真增强法与无标签数据
本文重新审视了无监督数据增强 (UDA) 技术,并在多个序列任务上展示了其效果。该算法的一些组件对于 NLP 任务的表现是必要的,而且 UDA 并不需要复杂的数据扩充,只需要对原有数据进行随机取代并在两次预测中执行一致性损失可以得到相当好的 - ACL双向语言模型的半监督序列标注
本文探讨了一种半监督的方法,通过添加双向语言模型的预训练上下文嵌入到 NLP 系统中用于序列标注任务,相比其他转移学习或添加标记数据和任务特定词典的方法,在命名实体识别和块分割等任务上实现了最先进的结果。
- 使用双向递归神经网络联合学习相关的序列标注任务
本文提出了一种使用双向循环神经网络联合对应多个相关任务的新技术,用于在缺乏标点和格式化的自动语音识别输出中改善标点和大写字母的性能,并可扩展到联合建模任何其他相关序列标记任务。