- 继承与蒸馏,对比进化:探索无样本记忆的类别增量语义分割
本文提出了一种新的方法 Inherit with Distillation and Evolve with Contrast (IDEC),它通过 Dense Knowledge Distillation on all Aspects (D - ICCVDR-Tune: 通过语义校准进行分布正则化,改善预训练视觉模型的微调
通过分布规则化和语义校准的先验知识下游微调框架,能够提高图像分类性能并解决过拟合和语义漂移的问题。
- POP:面向连续学习的提示
本文提出了 Prompt Of Prompts (POP) 模型,它通过逐步学习一组任务特定 prompt 和一组全局 prompt 的方式来捕捉多个任务之间的信息集成,并证明这个模型在少样本情况下能够优于传统的 CL 方法。
- ACL语言数据集漂移的表征与测量
本文提出三个语言数据漂移维度:词汇、结构和语义漂移,通过词频差异、句法差异和不可被词频捕捉的语义变化等度量,研究发现该方法比以前的方法更能够预测模型准确性,特别是在预测模型在测试集上的表现时。
- 一种新型灵活框架用于 ASR 误差鲁棒意图检测的校准和改进
本文提出一种 CR-ID 框架,使用两个插拔式模块,即语义漂移校准模块(SDCM)和音素改进模块(PRM)以减轻 ASR 错误引起的语义漂移,实验结果表明 CR-ID 能够有效地缓解 ASR 错误造成的语义漂移。
- EMNLP校准你的听众!针对语用说话人的鲁棒基于交际的培训
为了在对话中发挥更好的作用,自然语言处理系统需要受到训练以产生上下文有用的话语。我们提出了一种使用神经听者的集团来规范演讲者训练的方法,以减少语义漂移,从而使演讲者能够生成实用的话语,同时达到大量词汇的量化数量和大规模推广的目的。
- EMNLP无言以对:基于表情符号语义漂移的建模
本研究论文探讨了 emoji 在社交和语言意义上的演变,通过研究语义漂移的框架来分析 emoji 现象及相关特征的影响因素。
- ACL多任务行为抑制语义漂移
研究智能代理人如何基于共享目标来塑造它们的语言表达能力。多任务培训可以有效解决语义漂移问题,并提高基于任务的语言使用的样本效率。
- COLING基于案例推导的自然语言推理
本文提出了一种基于使用类比方法从类似示例中进行先前的解释传递的情形推理及案例推理自然语言推理模型,即 Case-Based Abductive Natural Language Inference (CB-ANLI),并在常识和科学问答任务 - CVPR用于类增量学习的语义漂移补偿
该研究针对增量学习设计了一种新方法,使用嵌入网络,以自然方式加入新类别而无需添加新的权重,并且通过估计特征的语义漂移来避免严重遗忘。实验结果表明,该方法表现优异且能显著减少遗忘。
- 多语言表征中的语义漂移
本文介绍了一种比较多语言计算表示相互关系的方法,可以重建语言学家所假定的类似的分类树,同时提出了一种检测语言家族之间语义漂移的度量,并使用基于单词和句子的多语言模型进行了实验,结果表明多语言分布式表示可以不需要任何词源学信息保存语言之间的关 - 句子级 TextGraphs 的多跳推理:为科学问题回答有效地结合信息有多具有挑战性?
通过评估来自三个自由文本语料库的知识图构建的通过词汇重叠连接的句子的机会聚合质量的 9,784 个手动注释的判断,我们实证表征了构建或遍历图形的困难,表明语义漂移倾向于很高并且聚合质量很低,高亮最大化有意义地组合信息的情况。
- ACL高可信关系抽取的联合引导机
BREX 是一种新的半监督自动关系抽取方法,通过高效的置信度评估使用实体和模板种子来防止污染问题。实验结果表明,BREX 的 F1 得分比现有技术高 0.13。