W-RST: 一种加权的 RST 风格的语篇框架
研究使用基于加权单词向量的模型,并使用多种分类器进行集成,以在影评数据集上提高 1.6%的性能,并在 Amazon 产品评论中提高 7.01%的性能,其中 tf-idf 等方法可以显着提高先前技术水平。
Dec, 2015
该论文提出了一种新的方法 — 通过权值共享来利用诸如 WordNet 或 Unified Medical Language System(UMLS)等现有的外部语言资源来完善神经模型,从而提高分类任务的性能。
Feb, 2017
本文提出了一种基于关键词权重排序的课程学习策略来改善多域文本分类模型的性能,该方法在对抗训练的基础上,并且在 Amazon 评论和 FDU-MTL 数据集上的实验结果表明,它能有效地提高多领域文本分类模型的性能,并优于现有的方法。
Oct, 2022
本文提出了 Deep Contextualized Term Weighting 框架,可以将 BERT 的上下文表示映射到句子和段落的上下文感知权重,用于段落检索和一阶段检索算法,实验表明 DeepCT 的深层上下文理解显著提高了一阶段检索算法的准确性。
Oct, 2019
本研究比较了统计和基于图形的术语加权方法,揭示了较少知名的词汇特异性相对于 tf-idf 的优势,以及统计和基于图形方法之间的定性差异,并提出了有关从业人员的建议。
Apr, 2021
本文提出随机加权方法(包括随机损失权重和随机梯度权重),并进行了收敛性分析和实证评估,结果表明随机加权方法具有可比拟的性能和更好的泛化能力,是多任务学习的重要基线方法之一。
Nov, 2021
提出了一种称为弹性权重剔除(EWR)的方法,该方法通过测量权重的不确定性来约束预先训练的模型参数,使得对话系统生成关于相关文件的信息时,不会产生错误或不可验证的信息。该方法使用 Flan-T5 作为主干语言模型,通过自动和人工评估表明,它在提高忠诚度方面具有系统性的优势。同时该方法还可以同时限制幻觉和提取响应,以防止浅层的复制和粘贴文档范围的情况。
Mar, 2023
该论文介绍了我们参与俄语单词词义感知和消除方面的 RUSSE'2018(Panchenko 等人,2018)的首个共享任务。我们通过使用词嵌入的重量平均值和神经机器翻译系统,在该任务中表现出了优异的结果并超越了先前年份基于语义嵌入的竞争性基线。
May, 2018