- 中间预测偏置增强未见词识别
基于自条件 CTC 的无适应参数方法可以通过替换中间 CTC 预测和传递纠正标签来提高对特定术语的识别准确性,实验证明该方法成功提高了未知单词的 F1 得分。
- ACL为印度语言优化预训练的命名实体识别模型
对印度语言进行多语言命名实体识别的挑战分析及旨在应对其的技术的提出。同时,提供了包括两个主要印度语言家族中四种印度语言在内的人工标注命名实体语料库,并在该数据集上对多语言模型进行了微调,平均 F1 得分达到 0.80。在印度语言的完全未见基 - COLING核指解析模型的有控重评
通过系统评估五个核心指代消解模型并控制每个模型使用的预训练语言模型,我们发现在语言模型大小相同的情况下,基于编码器的核心指代消解模型在准确性和推理速度方面优于更近期的基于解码器的模型,并且我们测试的最古老的核心指代消解模型在跨领域文本体裁中 - 大型语言模型中的长篇事实准确性
大型语言模型经常在对开放式主题的事实查询提示进行回答时产生内容错误。为了评估模型在开放领域中的长篇事实可靠性,我们首先使用 GPT-4 生成了一个包含 38000 个问题的长篇事实测试集,然后提出利用 LLM 代理作为长篇事实性的自动化评估 - 基于 Transformer 的高维数据量子嵌入
量子嵌入式与变压器是一种新颖且有前景的架构,用于实现在近期设备或模拟器上提供异常能力的量子机器学习。该研究在 BirdCLEF-2021(一个具有挑战性的高维度数据集)上,通过结合视觉变压器(ViT)显著提升了量子嵌入能力,并使得单比特分类 - AAAI简单的弱核心集对于不可分解分类测量
考虑监督分类问题和非可分解评估指标,研究基于分层均匀采样的 coresets 在实证性能与理论保证方面表现优秀,特别针对 F1 得分和 Matthews 相关系数这两个广泛使用且难以优化的非可分解目标函数,证明均匀 coresets 达到了 - 使用自适应多头注意力的 Transformer 情感分析
提出了一种基于注意机制的新型框架,用于识别电影评论文档的情感。通过自适应多头注意力架构 (AdaptAttn) 根据句子长度变化注意头的数量,在 Stanford 大型电影评论数据集上的实验结果显示,我们的模型的 F1 得分与基准模型相当。
- 基于课程学习的数字孪生在网络物理系统中的异常检测
基于数字孪生的课程学习的异常检测方法 LATTICE 通过引入课程学习来优化 ATTAIN 的学习过程,并在五个真实世界的 CPS 测试平台上的评估结果显示,LATTICE 在 F1 得分方面优于三个基准模型和 ATTAIN,并且平均减少 - ACLPRiSM:使用关系感知评分校准提升低资源文档级关系抽取
在低资源环境中,本文通过采用校准方法提出 PRiSM,该方法能够基于关系语义信息调整逻辑回归结果,实验结果表明,将 PRiSM 与现有模型相结合,在三个 DocRE 数据集上可以提高 26.38 个 F1 分数,同时校准误差在使用约 3% - AKEM: 使用集成模型将知识库与查询对齐的实体识别和链接
该研究论文提出了一种新方法来解决 NLPCC 2015 中的实体识别和链接挑战问题,通过扩展现有知识库并利用外部知识识别候选实体,提高了召回率,同时利用支持向量回归和多增加回归树作为评分函数来过滤结果,应用规则进一步优化结果并提高精确度,该 - 神经符号飞镖游戏下的词义消歧
通过神经符号方法在嵌入式感知球的配置和逻辑推理中使得词义消岐的 F1 分数达到 90% 以上,从而突破了利用深度学习方法对词义消岐的准确度的层限。
- iMETRE:基于实体类型标记的关系抽取
本文讨论了如何通过在金融数据集 REFinD 中使用带类型的实体标记表示和各种模型对任务进行微调的方法来提高关系抽取任务的表现,取得了 69.65% 的 F1 得分,并讨论了各种方法和可能的局限性。
- 基于正负未标注度量学习的文档级关系抽取框架
本文提出了一种基于 P3M 度量学习框架的文档级关系抽取方法,使用正向增强和混合方法进行正向无标签学习,改进了文档级关系抽取的 F1 分数。
- 序列标注的全局上下文机制
使用 BERT 嵌入 BiLSTM,发现将整个句子表示策略性地集成到每个单元格的句子表示中,可显著提高序列标注任务的 F1 得分和准确性。在包含 9 个数据集的序列标注任务中,涵盖了命名实体识别(NER)、词性标注和端到端基于方面的情感分析 - Rudolf Christoph Eucken 在 SemEval-2023 任务 4 中:一种集成方法用于从论证中识别人类价值观
本文提出了一种集成方法来从论述文本中检测人类价值观,该方法包括三个模型,并通过不同的方法组合实验,最终获得 0.48 的 F1 分数。
- ACL知识库问答中应更加关注关系探索
本文提出了一种新的 RE-KBQA 框架,利用知识库中的关系来增强实体表示并引入额外的监督方法以提高知识库问答的效果,通过实验证明此框架的优越性,从而提高 F1 分数。
- 无监督跨语言分词的自调参数
该研究探讨了对于英语、俄语和汉语的无监督分词问题可行的元学习方法,通过实现基于不同人类独立健身函数的元学习方法以及三个度量的加性和乘性组合来测试不同语言的无监督分词模型并找到了适合每种语言的最佳设置。
- 机器翻译用于生成命名实体数据集的潜力探索:波斯语和英语之间的案例研究
通过将机器翻译应用于英语数据集,本研究聚焦于生成波斯语命名实体数据集。通过实验评估,最高的 F1 分数是 CoNLL 2003 数据集的 85.11%。本研究的结果强调了机器翻译在为低资源语言(如波斯语)创建高质量的命名实体识别数据集方面的 - VTCC-NLP 参加 NL4Opt 竞赛子任务 1:命名实体识别的集成预训练语言模型
本文使用三个预训练的语言模型(XLM-R、BART 和 DeBERTa-V3)作为上下文嵌入的增强,用于命名实体识别,最终在 NL4Opt 竞赛子任务 1 上取得了 92.9% 的 F1 得分,并排名第五。
- 基于情境适配器和自适应增强的 CTC 语音识别模型个性化研究
该研究提出了一种新的语音识别模型,使用动态增强和电话对齐网络来优化编码器和解码器,在编码器中引入关注稀有单词和超出词汇表以及解码器中使用子词预测结果,结果表明 F1 可以达到 60%。