通过结构化感知机训练和使用大量自动解析的句子来学习神经网络表示,我们的解析器在Penn Treebank数据集上达到了94.26%的未标记和92.41%的标记附加精度,是迄今为止在Stanford Dependencies上最佳的精度,并提供深入的剖析分析以确定模型的哪些方面提供了最大的准确性增益。
Jun, 2015
本文提出了一种新的方法,在动态规划算法的递归过程中使用强凸正则化器平滑极大算子,以使一类DP算法变得可微分,从而解决DP算法在神经网络中无法使用反向传播训练的问题,同时实例化了两个平滑算法,并在结构化预测任务和神经机器翻译中测试了其性能。
Feb, 2018
本文讨论了拉回下游学习目标方法来探索潜在结构学习的原理,从而发现了STE和SPIGOT的原则动机,这导致了相同家族中的新算法,并将已知的和新的拉回估计器与流行的选择进行了实证比较,为实践者提供了新的见识,并揭示了有趣的失败案例。
Oct, 2020
本文研究使用深度结构化预测和表达能力强的神经网络编码器针对涉及复杂论证结构的任务,探索随机推断的使用以提高计算效率。
Jan, 2021
STraTA提出了一种新方法,即自训练+任务增强,通过任务增强技术和伪标记的数据进行自训练,以在少样本情况下有效提高预训练语言模型的效率。实验证明,STraTA方法可以在12个少样本基准测试中显著提高样本效率。
Sep, 2021
该论文介绍了在自然语言处理和机器学习中,为了提高模型性能和解释性,学习离散结构的方法。论文提出了三种主要的方法:代理梯度、连续松弛和基于采样的边缘似然最大化,最终总结了这些方法的应用和学习的潜在结构的检查。
Jan, 2022
提出 CoFi(粗细粒度剪枝)方法,该方法结合了粗细粒度模块的剪枝决策,并采用分层蒸馏策略将知识从未剪枝模型转移到已剪枝模型,使模型同时拥有与蒸馏方法相当的精度和延迟优势,而无需使用无标注数据。在 GLUE 和 SQuAD 数据集上的实验表明,CoFi 方法在速度和精度方面相对于以前的剪枝和蒸馏方法具有更高的效率和效果。
Apr, 2022
本文证明,将中间监督合并到输入中、在修改过的输入上训练序列到序列模型时,无法学习的复合问题可以变得可学习。
该论文研究了如何利用强化学习的方法,通过允许算法回溯并探索替代解决方案来克服自然语言处理中贪婪算法的误差传播问题,并运用于词性标注和依存分析中,表明回溯是防止误差传播的有效手段。
Jun, 2022
通过使用半环,我们将反向传播算法推广到神经网络的梯度图的其他可解释统计量的高效计算,以识别深度神经网络中的重要特征、组件和自注意机制的路径。
Jul, 2023