情感分析的两个方面:情感极性和情感强度
在本研究中,我们提出了一种名为 MTL-Split 的创新架构,以解决如何让多任务 DNN 在 Split Computing 框架内进行部署的问题,并展示了在合成和真实数据上的令人鼓舞的结果。
Jul, 2024
表示学习是一种强大的工具,通过强制所有代理在共享的学习特征上运行,使得在大量代理或领域上进行学习成为可能。然而,大多数保证表示学习的静态设置下成立,而与环境和目标不断变化的机器人或控制应用受益的协作操作在动态设置下进行。为了在动态设置中严格证明表示学习的优势,我们分析了线性二次控制中多任务表示学习的遗憾。在这个设置中存在独特的挑战,其中包括对近似表示引入的错误进行补偿和平衡以及无法依赖于单任务在线 LQR 的参数更新方案,而是必须设计一种新的方案来确保足够的改进。我们证明,在探索是 “良性” 的情况下,任何代理在 T 个时间步之后的遗憾的数量级为 O (根号 (T/H)),其中 H 是代理的数量。在具有 “困难” 探索的设置中,遗憾的数量级为 O (根号 (d_u d_theta) 根号 (T) + T^(3/4)/H^(1/5)),其中 d_x 是状态空间维度,d_u 是输入维度,d_theta 是特定任务的参数数量。在两种情况下,通过与极小值单任务遗憾 O (根号 (d_x d_u^2) 根号 (T)) 做比较,我们看到多个代理的好处。值得注意的是,在困难探索的情况下,通过跨任务共享表示,有效的特定任务参数数量通常较小,即 d_theta < d_x d_u。最后,我们对我们预测的趋势进行了数值验证。
Jul, 2024
通过多任务分组 (MTG) 方法,同时识别最佳任务组,并在单次训练中利用高阶任务亲和力完全训练模型权重,以提高训练效率并减轻顺序过程引入的目标偏差,方法通过在自适应网络架构中采用完全可区分修剪问题来表示 MTG,通过逐渐修剪连接到所有任务头的任务支 (ZN heads) 来将 N 个任务分成 K 组。
Jul, 2024
该研究介绍了第七届野外情感行为分析(ABAW)竞赛,其中涉及两个子挑战:多任务学习和复合表情识别,以及相关的数据集、协议、评估指标和基线系统。
Jul, 2024
探讨了使用多任务学习和多重编码器方法在文档级神经机器翻译中建模上下文编码的观察,证明了在资源匮乏的情况下,该方法比串联和多重编码器模型表现更好,并对选择上下文敏感。
Jul, 2024
利用培训有源代码的现成模型来捕捉特征,如视角选择或几何先验,改善性能是现有关于三维物体目标级语言基础的工作的主要关注点之一。然而,它们没有考虑到在跨领域中探索语言 - 视觉对齐的跨模态表示。为了解决这个问题,我们提出了一种名为三维对象领域适应的语言基础(DA4LG)的新方法。具体而言,DA4LG 由具有多任务学习的视觉适配器模块组成,通过全面的多模态特征表示实现视觉 - 语言对齐。实验结果表明,DA4LG 在视觉和非视觉语言描述方面具有竞争力的性能,不受观测完整性的影响。DA4LG 在单视图设置和多视图设置中均在语言基础基准 SNARE 中达到了 83.8%和 86.8%的准确率,达到了最先进的性能。仿真实验显示 DA4LG 相比现有方法具有良好的实用和泛化性能。
Jul, 2024
我们介绍了 HyperLoader,一种简单的方法,它在多任务设置中结合了不同的参数高效调优方法。通过使用超网络根据任务、Transformer 层以及层内位置生成这些模块的权重,我们的模型实现了这一目标。我们的方法通过在生成的权重中封装任务特定知识,综合了多任务学习的优点,同时通过结合不同的参数高效方法以超过完全调优的表现。我们提供实验证据证明 HyperLoader 在大多数数据集中优于以前的方法,并在高资源和低资源场景中获得最佳的任务平均性能。
Jul, 2024
这项研究在情感计算领域进行,旨在提高情绪识别领域多任务学习的效率和效果。研究探索了单任务解决方案和多任务方法,并通过修改输出层和损失函数,利用现有的神经网络架构进行多任务学习,研究结果对于情感计算领域具有潜在的应用价值。
Jun, 2024
利用自监督学习(SSL)基于语音模型识别和预测抑郁症症状和严重程度,比传统语音特征具有显著性能改进,并探究不同类型的 SSL 预训练模型在识别不同症状时所贡献的语音信息,以及多个 SSL 嵌入的组合和多任务学习在有效识别抑郁症症状中的重要性。
Jun, 2024
本文介绍了一种用于合并大型语言模型的模型专属任务算法,该算法通过优化合并模型和每个个体任务模型之间的平均损失差异来实现多任务学习,该方法不受隐私限制,具有成本效益和易于实施的优势,并在多个任务上取得了最先进的性能。
Jun, 2024