- 每个任务非常少的样本的元学习
在这项研究中,我们研究了元学习和多任务学习的框架,探讨了在小样本情况下,通过少量任务和样本,能否学习到有效的共享表示,并利用该表示解决二分类问题。
- 多任务学习可改善最差组结果
为了创建能为多样用户提供服务的机器学习系统,需要不仅实现高的平均性能,还要确保在不同群组中公平的结果。本文研究了多任务学习在最差群组准确性和群组公平性挑战中的潜力,并提出了通过对多任务表示空间进行正则化改进的方法。实验结果表明,我们的正则化 - 印度尼西亚 LEGO-ABSA:多任务生成式基于方面的情感分析
本研究通过应用多任务学习和提示法,利用生成式预训练语言模型在 Bahasa Indonesia 上实施基于方面的情感分析,开发了 Indo LEGO-ABSA 模型,该模型在印尼语言的酒店领域数据集上训练,得到了高准确率的结果。
- 多任务轨迹异常检测的整体表示学习
视频异常检测中,除了视觉信号外,我们还应用了骨架序列。我们提出了一种完整的骨架轨迹表示方法,以学习不同时间段内预期的动作。我们使用多任务学习来重建轨迹的任何未观测连续时间段,从而实现过去或未来时间段的外推和插值。我们采用了端到端的基于注意力 - 多标注者数据集的损失建模
通过多任务学习和基于损失的标签修正,我们提出了一种学习多样化意见更准确表达的方法,并展示了该方法在单个或多个注释者注释情况下改善预测性能的能力,同时对主观数据应用的附加标签噪音也表现出鲁棒性。
- 从向后错误分析的角度看多任务和持续学习中的隐含偏差
使用反向误差分析为神经网络在多任务学习和持续学习设置中计算隐含的训练偏差,并推导出通过随机梯度下降训练时隐含地最小化的修改后的损失函数,其中包括原始损失、隐含的平直度正则化项与冲突项。这里,冲突项可理论上对收敛和隐含正则化产生不良影响,在多 - 图神经网络用于道路安全建模:事故分析的数据集和评估
本文通过构建一个大规模、统一的数据集,总计 900 万条交通事故记录,并结合道路网络和交通量报告,评估了现有的深度学习方法在预测道路上事故发生的准确性。研究发现,图神经网络(如 GraphSAGE)能够准确预测道路上事故的数量,平均绝对误差 - EMNLP通过视觉问答对将探测信号融入多模态机器翻译
本研究论文通过深入研究多模式机器翻译(MMT),探讨了 MMT 系统在源文本完整时对视觉信息的敏感性降低的现象,并提出了一种新的方法来生成并行的视觉问答(VQA)风格对,以促进更强大的跨模态交互。使用大型语言模型(LLMs),将 MMT 中 - SALM: 基于语境学习的语音增强语言模型用于语音识别和翻译
我们提出了一种新颖的具有多任务和上下文学习能力的语音增强语言模型(SALM)。SALM 由一个固定的文本语言模型,一个音频编码器,一个模态适配器模块和适应语音输入和关联任务指令的 LoRA 层组成。统一的 SALM 不仅在自动语音识别(AS - LauraGPT: 听、关注、理解与重建音频的 GPT
本文提出了 LauraGPT,一个统一的 GPT 模型,用于音频识别、理解和生成,实现了在多个音频处理基准测试上与现有 SOTA 模型相媲美或卓越的性能。
- 基于二维卷积的时间序列数据多任务学习
该研究探讨了多任务学习在时间序列分类问题中的应用,并提出了一种基于二维卷积的模型设计,通过增强模型的表达能力,在 UCR Archive 和一个工业交易时间序列数据集上取得了优于竞争方法的表现。
- 真实客户服务呼叫中心对话中的端到端连续语音情感识别
我们提出了一种大规模真实生活数据集(CusEmo)的构建方法,该数据集用于评估客户服务呼叫中心对话中情感的连续识别。该研究还解决了将端到端(E2E)情感识别系统应用于数据集时遇到的挑战,包括确定适当的标签采样率和输入段长度,以及使用多任务学 - 跨範疇聯合實體關係提取多任務學習中處理負樣本
该研究论文介绍了一种基于跨度的多任务实体 - 关系联合提取模型,通过多任务学习和位置信息的引入,有效地减轻了负样本对模型性能的负面影响,同时在广泛应用的公共数据集 CoNLL04、SciERC 和 ADE 上取得了令人称赞的 F1 得分。
- Voxtlm: 统一的解码器模型用于集成语音识别 / 合成和语音 / 文本延续任务
我们提出了一种仅解码的语言模型 VoxtLM,可以执行四个任务:语音识别、语音合成、文本生成和语音延续。与单任务模型相比,VoxtLM 在语音合成方面显示出显著改进,语音可懂度从 28.9 提高到 5.6,客观质量从 2.68 提高到 3. - 利用超分辨率和帧场学习在密集区域中进行建筑物轮廓提取
通过使用超分辨率和多任务学习的方法,本文提出了一种解决在密集区域中准确提取建筑物轮廓的框架,并通过实验证明该方法在模拟密集区域的区域中显著优于现有的方法。
- 基于 Tensorized SVMs 和 LSSVMs 的低秩多任务学习
多任务学习中使用高阶张量表示任务间的结构关系,并通过线性组合共享因子、特定因子来模拟任务关联,提出通用的基于低秩的多任务学习方法,证实了该方法在多任务学习中的有效性和优越性。
- EMNLPFonMTL: 面向 Fon 语的多任务学习
本文介绍了多任务学习在 Fon 语言的自然语言处理中的应用,具体研究了 Fon 语言的命名实体识别和词性标注任务,并展示了在这些任务上相对于其他预训练的多语种语言模型来说,具备竞争力或者更好的性能。
- IJCAI深度超参数化多任务学习中的紧凑神经网络学习
紧凑型神经网络面向多任务学习的过参数化设计以提高优化和泛化性能,通过在训练过程中对模型架构进行过参数化,并更有效地共享过参数化的模型参数,以在小参数大小和低计算成本下获得与更复杂和强大架构相同或更好的模型性能。在两个具有挑战性的多任务数据集 - 建筑物提取与高度估计的多任务学习的数据融合
根据 DFC23 赛事提出的城市重建问题,本文尝试使用光学和雷达卫星图像的多任务学习方法来进行建筑物提取和高度估计,实验结果显示在约束条件下进行的建筑物提取和高度估计任务的基准结果显著提高。
- 无悔的多任务学习:从改进的置信界到主动学习
该研究提出了在缺乏任务相似性和任务特征的条件下,通过多任务学习获得的置信区间,可以有效地估计多个相关任务的不确定性,并且可以应用于在线学习中,进一步提出了一种新颖的多任务主动学习算法来同时优化多个任务,通过使用置信区间决定选择哪个任务进行查