BriefGPT.xyz
大模型
Ask
alpha
关键词
multi-task objective
搜索结果 - 6
风格化对抗防御
利用目标样本的样式和内容信息以及其类边界信息创建对抗性扰动,将其应用于多任务目标并进行深度监督,提取多尺度特征知识以创建最大分离对手,随后提出最大间隔对抗训练方法,最小化源图像与其对手之间的距离,并最大化对手和目标图像之间的距离,证明与最先
→
PDF
4 years ago
ACL
利用句法结构改进语言模型:一种句法距离方法
本研究采用多任务学习方法,通过预测单词和语法距离(即基于真实解析树的距离值)的方式,相互共享中间表示,以有效且高效地融入句法结构于神经语言模型中, 实验表明,提供基于真实解析树的训练信号,能够降低困惑度并生成更好的语法树。
PDF
4 years ago
长文本问答
这篇论文介绍了第一个大规模的长篇问答语料库,其中包括了 270,000 个 Reddit 论坛上的线索,使用多任务目标的诠释性模型表现最佳,但仍存在改进的余地。
PDF
5 years ago
TransferTransfo: 基于神经网络的对话代理的转移学习方法
该研究提出了一种新的生成数据驱动对话系统的方法,称为 TransferTransfo,它是基于传输学习和高容量 Transformer 模型的组合,使用多任务目标进行微调,取得了当前最先进的端到端对话模型如记忆增强 seq2seq 和信息检
→
PDF
5 years ago
作为正则化器的表示稳定性,用于改进文本分析的迁移学习
使用基于蒸馏思想的多任务目标和相应机制解决神经网络在序列迁移学习任务中的灾难性遗忘问题,并在 Twitter 情感分析任务上进行了演示,表明该技术优于 fine-tuning,并且能够不遗忘有用的先前知识。
PDF
7 years ago
ACL
通过图片学习语言
该研究提出了 Imaginet 模型,该模型可以从耦合文本和视觉输入中学习语言表达的视觉基础表示,采用多任务目标,并从视觉场景描述中获取单词的含义表达,并学习有效地利用语义解释多词短语的顺序结构。
PDF
9 years ago
Prev
Next