Apr, 2018

针对多合成极低资源语言的神经形态分割模型加强

TL;DR本研究提出两种新型的多任务训练方法和相应的数据增强方法,应用于Mexican polysynthetic语言的形态分割,提高了神经基线的性能,同时探索了跨语言转移作为第三种加强神经模型的方法,表明在维持可比性甚至性能提高的同时,可以训练一个多语言模型来减少约75%的参数数量,将我们的形态分割数据集提供给Mexicanero,Nahuatl,Wixarika和Yorem Nokki用于未来研究。