- 纠正链接推荐的曝光偏差
研究说明链接预测方法在推荐系统中的广泛应用,但当用户系统性地遭受某些相关项目的低曝光时,可能出现曝光偏差。 该研究提出了一种通过已知曝光概率来减轻这种偏差和随之而来的反馈循环的估计器,并提供了一种用于从数据中学习曝光概率的损失函数,经过实验 - 使用增量解析和动态预测来明确建模语言模型中的语法
该研究提出了一种新的语法感知语言模型:Syntactic Ordered Memory (SOM),它通过一个增量式解析器显式地建模了结构,并保持了标准语言模型 (从左到右) 的条件概率设置。实验证明,该模型在语言建模、增量解析和语法泛化测 - EMNLP使用学生强制最优传输改善文本生成
利用最大似然估计进行神经语言模型训练时,存在曝光偏差问题。提出使用最优传输匹配训练和测试时的序列,以及基于文本序列的结构和上下文信息进一步改进最优传输学习,有效改善了机器翻译、文本摘要和文本生成任务的表现。
- EMNLPTeaForN:基于 N-gram 模型的教师强制算法
通过使用一种名为 TeaForN 的方法,我们可以在不改变现有标准老师强制模型框架的情况下,通过使用 N 个解码器在一个辅助时间轴上进行编码,从而降低暴露偏差和差分难度,从而提高序列生成模型的生成质量。
- ICLR通过学习演示进行文本生成
本论文提出了一种基于离线强化学习的 “GOLD” 算法,用于解决现有文本生成方式的问题,它通过加权学习参考样本,避免了在线强化学习方法所面临的优化问题,并在题目总结、问题生成和机器翻译等方面取得了比 MLE 和策略梯度更好的自动和人工评价结 - EMNLP减小 Seq2Seq 模型在实体和关系联合抽取中的暴露偏差
提出了一种 Sequence-to-Unordered-Multi-Tree 模型用于联合实体和关系提取,通过限制三元组内的解码长度和移除三元组之间的顺序等方法,最小化暴露偏差效应并提高泛化能力,实验表明该模型在 DuIE 和 NYT 数据 - MM推荐中的多维度暴露偏差
本文通过使用多个推荐算法和音乐、电影两个领域的公开数据集,实证了推荐算法的内在流行度偏差以及这种偏差对用户和项目供应商等不同利益相关者的影响,并提出了从不同利益相关者的角度衡量推荐算法暴露偏差的度量方法。
- KDD大规模推荐系统中,对偏差候选生成采用对比学习方法
本文研究了在深度候选生成(DCG)中使用对比学习的有效性,理论证明了对比损失函数等效于通过逆倾向加权来减少暴露偏差,并提出了 CLRec 和 Multi-CLRec 方法用于改善大规模推荐系统的公平性、效率和准确性。该方法在淘宝上的四个月在 - ACL神经机器翻译中的曝光偏差、幻觉和领域偏移
本论文从三个数据集中的多个测试域的实验中,展示了暴露偏差对于幻觉的部分责任,并且证明了避免暴露偏差的 Minimum Risk Training 可以缓解幻觉问题,并说明了暴露偏差在领域转移下更加问题,并且将其与 Beam Search 问 - ICML抽象摘要生成的判别式对抗搜索
本研究提出了一种名为 DAS 的新型序列解码方法,使用判别器来驱动序列生成,从而减轻现象偏差的影响;应用该方法于提取式摘要任务上的实验结果表明,DAS 可以优于现有最先进的方法,同时可用于不同领域的自适应,而且不需要依赖后处理规则过滤策略。
- 生成中的泛化问题:更深入地探究曝光偏差
本文研究了曝光偏差这一问题,提出了无条件生成作为基本标准,结合隐变量建模和强化学习的探索方法,解决了真实和生成上下文的处理问题,并在语言建模和变分自编码任务中验证了模型的泛化能力。
- 无序学习:减轻多标记分类中的曝光偏差
本文提出了一种新的多标签分类框架,不依赖于预定义的标签顺序,有效减轻暴露偏差,通过实验结果表明,相较于竞争基线模型,该方法具有很大的优势和更好的泛化能力,可生成更好的未训练标签组合。
- Transformer 的计划采样
该研究提出了一种双重解码策略使得计划采样技术可以应用于 Transformer 模型,以解决序列生成中出现的曝光偏置问题,该技术可大幅提高模型的性能,并表明其具有进一步探索的潜力。
- 一种新的基于 GAN 的端到端 TTS 训练算法
本文提出了一种使用生成对抗网络和 Professor Forcing 概念训练的自回归模型,旨在减轻 TTS 中遭遇的曝光偏差问题,AB 测试结果表明该方法相较于传递学习得到了显著的 CMOS 0.1 的改进,语音测试集表现也有大幅度提升。
- ACL神经机器翻译中带有灵活参照词序的可微分采样
该研究论文介绍了一种新的可微分采样算法,该算法通过基于模型预测的软对齐来优化参考与采样输出之间的对齐概率,从而提高机器翻译的 BLEU 值,并在 IWSLT 翻译任务中取得较大的改进。
- 语言 GANs 的不足
本篇论文研究自然语言生成中存在的曝光偏差问题,指出了评估基准的不足之处,并证明在整个质量和多样性空间中,最大似然估计(Maximum-Likelihood)模型在质量和多样性方面表现优于对抗性变体,且温度调整提供了更好的质量 / 多样性权衡 - EMNLP基于概率 N-gram 匹配的贪婪搜索神经机器翻译
该研究提出一种基于可微序列级训练目标的方法,使用概率 n-gram 匹配来避免强化学习框架,该方法在训练中执行贪心搜索并使用预测的单词作为上下文,以缓解曝光偏差问题,实验结果表明,该方法在 NIST 中英文翻译任务中显着优于基于强化学习的算 - EMNLP神经机器翻译的误差传播之外:语言特性也很重要
本论文研究神经机器翻译中自回归模型采用的误差传播问题,发现漏洞传播对于翻译准确性下降的作用被过度强调,对于右向枝语言翻译结果的左侧准确性更高,而左向枝语言则相反,该结论在不同的模型结构和文本摘要等其他序列生成任务中得到确认。
- ACL政策梯度作为组块分析中动态 Oracle 的代理
本研究探讨使用策略梯度方法作为独立于特定解析器转移系统的替代动态预言机的多元组监督方法,以直接优化 F1 指标并在训练期间进行探索,从而减少暴露偏差。在三种不同语言的四个成分解析器中,该方法在几乎所有情况下都比静态预言机似然训练方法表现出更 - 基于深度强化学习的序列到序列模型
本文介绍最近相结合的 seq2seq,深度神经网络和加强学习模型,考虑如何在决策制定的 RL 方法中利用序列到序列模型的长期记忆能力来解决复杂的问题,提出并探讨 RL 方法解决序列到序列模型领域常见的曝光偏差而且在训练与测试的指标上也不一致