BriefGPT.xyz
Ask
alpha
关键词
pre-training methods
搜索结果 - 25
ACL
上下文化时间图生成的神经语言建模
使用大规模预训练语言模型自动产生基于事件级别的时间图的第一项研究,通过使用现有的信息提取 / 自然语言处理工具自动生成大量文档 - 图对,并将上下文化图的产生问题作为序列到序列映射任务提出创新方案,我们的实验表明,我们的方法在生成结构和语义
→
PDF
4 years ago
自我监督表示改善端到端语音翻译
本文旨在探索自监督预训练语音表示是否可以优化高和低资源语音翻译任务,并且这些语音表示是否可以有效地和其他常见的低资源端到端语音翻译方法相结合,以及这些表示是否可以良好地跨语种迁移。结果表明,自监督预训练功能可以始终提高翻译性能,并且跨语言传
→
PDF
4 years ago
ECCV
Oscar: 面向视觉语言任务的对象 - 语义对齐预训练模型
本文介绍了一种基于目标检测的图像 - 文本预训练学习方法 Oscar,通过使用在图像中检测到的目标标签作为锚点,显著简化模型中的图像与文本的语义对齐,使其在六个视觉 - 语言理解和生成任务中创造了新的最好成果。
PDF
4 years ago
AAAI
连接预训练与微调:面向端到端语音翻译的差距缩小
本文提出使用 Tandem Connectionist Encoding Network 解决传统方法在 end-to-end 语音翻译中 fine-tuning 与 pre-training 之间巨大差距的问题,进而设计了两种简单且有效的
→
PDF
5 years ago
QuesNet: 异构测试题统一表示
提出了一种面向教育领域的预训练方法 QuesNet,利用统一的框架整合含有异构输入的问题信息并设计了两种级别的预训练算法来学习基础语言特征、领域逻辑和知识,证明了其在问题理解和应用方面的有效性和优越性。
PDF
5 years ago
Prev
Next