- RobustAnalog: 多任务强化学习实现快速考虑变异性的模拟电路设计
RobustAnalog 是一个稳健的电路设计框架,将不同变化下的电路优化作为一组任务,并利用任务之间的相似性和竞争减轻实现了高效的多任务训练,从而可以快速生成满足不同限制条件的电路参数,相比于其他算法,能显著减少 14-30 倍的优化时间 - ICML使用相关采样的多任务检索增强文本生成
该研究研究了面向知识密集型任务的检索增强式生成模型的多任务训练。通过利用知识密集型生成的独特属性:查询 - 答案对与知识库中项目的联系,我们提出了一种清理训练集的方法。使用关联性标签的置信度阈值过滤训练样本,以确定是否可以通过知识库回答一对 - ICLR知识混合增强模型:低资源 NLP 的全功能数据增强方案
该论文提出了一种名为 KnowDA 的 Seq2Seq 语言模型,该模型利用知识混合训练 (KoMT) 在多个异构 NLP 任务中预先训练并生成高质量的合成数据,用于解决低资源 NLP 任务中数据增强的问题。实验证明,KnowDA 成功地将 - SMT-DTA: 半监督多任务训练提高药物 - 靶标亲和力预测
本文提出了一种基于深度学习的多任务训练、半监督学习和交叉注意力模块的方法,预测药物 - 靶标亲和性,有效地应用于药物设计和制造过程中,实验结果显示此方法具有较高的准确性和广泛的应用前景。
- 结构化提示调整
本文提出了一种名为 “结构化提示调整” 的简单有效的方法来改进提示调整,并比较了其与标准提示调整的实验结果。该方法通过超级网络生成柔性提示嵌入,可以更灵活地应用于模型设计和单任务、多任务训练环境。实验证明,相比标准提示调整,结构化提示调整在 - ACL探索任务可转移性在大规模多任务学习中的作用
本研究旨在阐明多任务表示学习中任务规模和相关性的影响。研究表明,如果预先知道目标任务,则在较小的一组相关任务上进行训练在降低计算成本的同时也能与大规模多任务训练相竞争。
- UniDU: 面向统一的生成式对话理解框架
本文提出了一种统一的生成式对话理解框架 UniDU,将所有 DU 任务都重新定义成统一的基于提示的生成模型。并引入了一种新颖的模型非特定多任务训练策略 (MATS) 来在训练期间动态地适应各种任务的权重以实现最佳的知识共享。实验表明,Uni - 让我做任何事情:面向智能体的多任务训练
本文介绍了使用 Atomic Skill Completion (ASC) 方法进行多任务 Embodied AI 训练的实验。与传统黑盒模型相比,使用 ASC 方法能够有效提高任务完成率和模型的可解释性。
- EMNLP探索一种用于社交媒体中医疗产品安全监测的统一序列转换器
本文使用 T5 模型架构,将不良事件检测和抽取问题视为序列到序列问题,并在多项英语基准测试中取得了较强的性能表现,进一步提出了多任务训练的新策略以提高模型的稳健性和语言转换能力。
- 跨模态渐进训练的端到端语音翻译
提出了一种基于 Cross Speech-Text(XSTNet)网络的用于语音翻译的端到端模型,采用自监督预训练子网络作为音频编码器、多任务训练目标以及渐进式训练策略,并在 MuST-C En-X 和 LibriSpeech En-Fr - EMNLP多任务变形金刚模型中的新兴行为是什么?
该研究探讨了多任务训练中非目标头的行为,发现它们表现出新兴行为,可以解释目标任务或超出其原始任务范围,这表明多任务训练可用于解释性和泛化。
- CVPR改进语义分割的在线性能预测
本文介绍了针对语义分割深度神经网络(DNN)在在线操作时的性能观测和改进,包括利用多任务训练、共享编码器 / 解码器、时间统计聚合方法等,以提高性能预测准确性。
- ACL图到文本生成中的结构信息保留
该研究提出通过使用自动编码损失的多任务训练的方法,从而在图到文本生成领域中更好地保存输入信息并提高性能,实验证明其优于现有基准模型。
- 跨语言阅读理解的零样本多语言合成问答生成
使用单一生成模型在大规模上生成多语言问题和答案对,通过多任务训练的生成模型来改进跨语言 QA 模型的零 - shot 表现,并在各种语言的 XQuAD 数据集上实现了较大的性能提升。
- CVPR通过使用自监督深度估计的多任务训练,改善语义分割的噪声和攻击稳健性
本文提出了一种新的多任务训练方法,通过自我监督单目深度估计额外任务在无标签视频上来提高神经网络的鲁棒性,以应对多样的噪声和对抗攻击。我们在 Cityscapes 数据集上证明了该方法对于语义分割任务的鲁棒性和对抗攻击都有明显的提升。
- ACL评估对话代理程序整合技能的能力
本研究探讨了几种结合不同能力的机器学习模型,旨在实现一个综合性的对话系统,并提出了一个新的数据集 BlendedSkillTalk,通过比较不同架构和训练方案的表现来分析这些能力如何在自然对话中融合。研究结果表明,相比于单一技能的模型,多任 - ICCV语言特征的重要性:用于视觉 - 语言任务的有效语言表示
文章研究了在视觉 - 语言 (VL) 任务中如何处理语言和视觉特征,提出了一些对于语言发挥更大作用的最佳实践,包括使用平均嵌入语言模型,进行多任务训练以及采用图形导向的视觉 - 语言嵌入模型(GrOVLE)来整合语言特征。
- MM基于三元组嵌入距离和相似度学习的音频无关语音说话人验证
本文介绍了两种在培训阶段优化说话人嵌入的方法:使用三元组损失来优化嵌入之间的欧几里德距离并减少多类交叉熵损失,以及设计一种嵌入相似度测量网络来控制选定嵌入之间的相似度。将两个新方法与原始网络联合培训,实现了最先进的结果,对 2016 年 N - 基于多任务关注机制的半监督学习在医疗图像分割中的应用
该研究提出了一种新颖的半监督图像分割方法,该方法同时优化了监督分割和无监督重建目标,并使用了注意机制。使用未标记的和少量标记的图像进行训练,该方法在大脑肿瘤和白质高信号分割等应用中表现优异。多次尝试后,发现交替训练比联合训练成本更低且性能更 - 使用条件神经自适应过程进行快速灵活的多任务分类
本文提出了一种基于条件神经过程的多任务分类方法,该方法可以在初步的多任务训练阶段后自适应地适应测试时遇到的新任务,并与元学习和少样本学习文献建立联系。实验结果表明,该方法在具有挑战性的 Meta-Dataset 基准测试中取得了最先进的效果