本研究提出了一种用于检索词汇和生成定义的双向神经词典,通过共享层将词或定义映射到相同的表示空间,以多任务方式生成另一种形式,通过嵌入处理未知的单词,结果显示多个目标有助于学习,达到了有前景的自动化得分,并得到了实践验证和人工评估者的认可。
May, 2022
本文介绍了我们针对 SemEval2022 词典义项匹配任务所设计的系统,主要集中在比赛的 Reverse Dictionary Track 上,涉及到多语言义项到重构向量的映射,主要是将输入句子转换为三类不同类型的嵌入。我们提出了几个实验,包括神经网络单元、通用多语言和多任务结构,以及语言无关技巧。最终我们的 Elmobased 单语言模型表现最佳,并且多任务、多语言变体也表现出竞争力。
Jun, 2022
本文提出了一种基于 mT5 的 transformer 深度学习方法,采用翻译语言建模技术而非常用的掩码语言建模技术,实现了支持印度语言的开源跨语言反向字典系统。
Apr, 2022
该研究提出了一种神经嵌入模型,利用双语词典将文字定义映射到双语目标词汇,探索不同的句子编码技术以及采用多任务学习和联合学习等关键学习策略来增强学习过程,实验结果表明,该模型在跨语言反向字典检索任务和双语释义识别问题上表现优异,并有效地解决了双语释义识别问题。
Aug, 2018
本文研究怎样使用 BERT 模型来完成 Reverse Dictionary 的任务,并结合 Multilingual BERT 模型实现多语言反向词典转换,同时提出了一种有效的方法来解决 BERT 模型生成词的问题。该模型在没有平行语料库的情况下,也能够实现出色的跨语言反向词典性能。
Sep, 2020
比较变体 transformers 模型在解决逆向词典任务中的表现,并探索其在严肃游戏《字典游戏》中的应用。
Nov, 2023
以阿拉伯逆向词典为例,通过阿拉伯文或英文定义为输入,使用模型预测词嵌入并通过取平均值得到最终的表示,另外将英文定义翻译为阿拉伯文并应用于模型也是有效的解决方法。
Oct, 2023
本文提出了一种基于双向解码器的神经机器翻译模型,其中正向解码器按原有的方法工作,但加入了逆向解码器,以利用源语言和目标语言的双向信息,从而提高翻译质量。实验结果表明,该模型在中英文和英德文翻译任务上均能够显著提高 NMT 的效果。
Jan, 2018
我们引入了一种多模态神经机器翻译模型,其中双重注意力解码器自然地整合了使用预先训练的卷积神经网络获取的空间视觉特征,弥合了图像描述和翻译之间的差距。我们的解码器通过两个独立的注意机制在生成目标语言单词时独立地关注源语言单词和图像的部分。我们发现我们的模型不仅可以高效地利用反向翻译的域内 多模态数据,还可以利用大规模的通用领域文本翻译语料库。我们还在 Multi30k 数据集上报告了最先进的结果。
Feb, 2017
该研究提出了一种新的内存增强的查找字典的 Transformer 语言模型,并证明了它在长尾预测问题上的有效性,提高了自动语音识别解码效率,特别是对于长尾词的识别表现更佳。
Dec, 2022