- 关于大涡模拟的数据驱动闭合模型误差分析的说明
通过数据驱动的涡流闭包建模,我们对流动轨迹预测中的误差传播提供了数学化的表述,分析了误差传播的影响因素,并且指出这些发现可以为基于机器学习模型的新的正则化技术提供改进的方向。
- 分布鲁棒离轨强化学习:通过线性函数逼近的证明效率
我们研究在源域进行训练并在不同的目标域中部署的离线动态强化学习,通过在线分布鲁棒的马尔可夫决策过程来解决此问题,我们的学习算法在与源域交互时寻求在源域转移核不确定性集合中最坏动态下的最优性能。我们设计了一个使用总变差距离的 $d$- 长方形 - 球形掩模:基于球形表示的粗到细的 3D 点云实例分割
提出一种基于球面表示的新型粗糙到精细方法,在 3D 实例分割中克服了轴对齐边界框 AABB 的实例尺寸估计过高和从不精确的边界框到细化阶段的假阴性误差累积两个局限性,通过引入两种基于边界框迁移的边界框检测和点迁移模块并运用两种基于间隔的损失 - 关于不精确缩减在主成分分析中的误差传播
主成分分析(PCA)是数据分析中的一种常用工具,特别适用于高维数据。本文对无精度缩减方法的误差传播进行了数学描述,并提供了两个结果:i)当寻找主要特征向量的子程序为通用时,ii)当使用幂迭代作为子程序时,由于幂迭代提供额外方向信息,我们能够 - 扩散模型是否受到误差传播的影响?理论分析与一致性正则化
扩散模型中的错误传播问题及其解决方法的实验和理论验证,提出了一种一致性正则化方案来降低前向和后向过程之间的分布差异,并引入了引导算法来降低计算成本。在多个图像数据集上的实验结果表明,该正则化策略有效地处理了错误传播问题,并显著提高了传统扩散 - AAAIMIGA:面向会话式文本到 SQL 统一的多任务生成框架
本文介绍了一种新的基于预训练语言模型的多任务生成方法,该方法能有效解决多对话查询 (logical forms) 生成中的误差传播问题,并在 SparC 和 CoSQL 等基准测试中具有最先进的性能表现。
- EMNLP联合训练是否真的有助于级联语音翻译?
本文讨论语音翻译中级联系统带来的挑战以及应对这些挑战的方法,研究表明,直接利用数据进行联合训练无法显著提高级联系统的性能,建议寻找其他有效的方法来提高语音翻译的效率。
- 中文 AMR 解析的两阶段方法
本文提出了一种两阶段方法进行中文 AMR 分析和对齐生成的模型,分别为概念预测和关系预测阶段,模型在 CAMR 2.0 测试集和 CAMRP-2022 盲测试集上分别取得了 0.7756 和 0.7074 的 Align-Smatch F1 - 对偶正则化和饱和非线性用于稳健量化
本研究通过分析后,提出了 “减少误差传播”、“范围固定以最小化误差” 和 “对抗量化的继承鲁棒性” 等三个指导。结合这三个指导,我们提出了对称正则化和饱和非线性两种新方法,能够增强任意神经网络对量化的鲁棒性。实验证明这些方法在 CIFAR - 基于深度强化学习的依存句法分析与回溯
该论文研究了如何利用强化学习的方法,通过允许算法回溯并探索替代解决方案来克服自然语言处理中贪婪算法的误差传播问题,并运用于词性标注和依存分析中,表明回溯是防止误差传播的有效手段。
- AAAI可靠的传播校正调制技术用于视频对象分割
本研究提出一种具有高可靠性的纠错机制,包括对目标帧嵌入进行稳健的信道重校准,引入可靠引用补充 “根据局部时间相关性和可靠参考” 两种调节器,采用级联纠正方案,用于在线半监督视频对象分割中抑制误差传播,并通过在可靠性过滤器中检索可靠补丁,将参 - EMNLP可修改的对话状态跟踪生成
本研究针对任务导向对话系统中对话状态跟踪方法的错误传播问题,提出了一种新的、可编辑生成的对话状态跟踪方法 (AG-DST),其中包含两次生成过程,通过额外的修订生成过程来修正原始对话状态中存在的错误。实验表明,AG-DST 方法显著优于现有 - ACL手机功能提升语言翻译
本研究比较了级联和端到端模型在不同资源条件下的性能,并在 ST 模型中引入电话特征以提高它们的表现,从而缩小了端到端模型与级联模型之间的差距。
- 内容自适应和错误传播感知的深度视频压缩
通过联合训练多个连续帧的压缩表现,充分利用长期时间信息有效地减轻了重构帧中的错误传播。同时,在线编码器更新方案适应不同的视频内容,根据速率失真准则更新编码器参数而不改变解码器,在基准数据集上优于基于学习的视频编解码器。
- 生物医学问答中的领域可移植性和错误传播测量
本论文针对 BioASQ 7 生物医学问答任务(7b 阶段 B)进行研究,探讨了于一般文本(如维基百科)上进行预训练和微调的 QA 系统的领域移植性,并分析了端到端检索和 QA 系统中的误差传播对结果的影响。结果表明,领域特定的微调可以提高 - 知识蒸馏技术下的端到端语音翻译
本文提出了一种基于知识蒸馏的方法来提高端到端语音翻译 (ST) 模型的性能,通过从文本翻译模型中转移知识来训练 ST 模型。在英法增广 LibriSpeech 和英汉 TED 语料库上的实验结果表明,使用该方法可以对相似和不相似的语言对进行 - EMNLP神经机器翻译的误差传播之外:语言特性也很重要
本论文研究神经机器翻译中自回归模型采用的误差传播问题,发现漏洞传播对于翻译准确性下降的作用被过度强调,对于右向枝语言翻译结果的左侧准确性更高,而左向枝语言则相反,该结论在不同的模型结构和文本摘要等其他序列生成任务中得到确认。
- 通过强化学习解决误差传播问题:以贪心依存句法分析为例
本文旨在研究在 NLP 中常见的误差传播问题,探讨如何运用强化学习技术来改善这一问题,并应用于特定的依存句法分析任务中,取得了较好的性能表现和效率优化。