BriefGPT.xyz
大模型
Ask
alpha
关键词
cross-lingual training
搜索结果 - 4
Hitachi 团队在 SemEval-2023 任务 3 中:探索跨语言多任务策略用于在线新闻体裁和框架检测
本文介绍了 Team Hitachi 参与 SemEval-2023 任务 3“检测多语言环境下在线新闻中的流派、框架和说服技巧” 的经验。通过多项实验,作者发现跨语言 / 多任务训练与收集外部平衡数据集有益于流派和框架检测,并构建集成模型
→
PDF
a year ago
无监督预训练在语言间具备良好的迁移能力
本篇研究调查了无监督预训练是否能够跨语言传输,以便自动语音识别系统(ASR)实现跨语言和多语言。研究表明,使用略加修改的对比性预测编码(CPC)预训练方式,能够提取和其他语言效果相当或甚至优于监督预训练的特征,证明了无监督方法在语言资源稀缺
→
PDF
4 years ago
EMNLP
在真正的低资源语言上,对于低资源依赖分析的方法进行系统比较
本文研究在少量训练数据的情况下,如何通过数据增强、跨语言训练和转写等策略提高处理低资源语言的分析器性能。在三种语言的实验中,发现数据增强和跨语言训练都能提高性能,而将高资源语料库中的字母转写成共享的拼写规则也很有帮助。
PDF
5 years ago
ACL
神经因子图模型用于跨语言形态标记
本研究提出了一种基于神经网络潜在能力的因子条件随机场模型,可用于语言之间的跨领域形态标注技术,在低资源语言中展现出卓越的标注准确性。
PDF
6 years ago
Prev
Next