基于 BERT 的双嵌入模型用于汉语成语预测
通过使用预训练的语言模型,我们可以提供上下文感知的句子嵌入来检测句子中的多词表达是否是惯用用法,从而更好地理解多词表达的惯用含义。
Apr, 2022
本文介绍了我们对 SemEval-2022 第二项任务 2 多语种成语检测和句子嵌入的子任务 B 进行的系统描述。通过添加每个成语的嵌入,我们修改了标准 BERT 句子转换器,这些嵌入是使用 BERTRAM 和少量上下文创建的。我们展示了这种技术提高了成语表征的质量,并在任务上导致了更好的表现。我们还对最终结果进行了分析,表明所产生的成语嵌入的质量对输入上下文的质量非常敏感。
Apr, 2022
本文研究表明,由习语或比喻语言训练的开放域对话系统能够更好地生成与包含习语提示相符的回复,通过利用潜在习惯表达(PIE)- 英语习语语料库,我们实现了 98%F1 宏分数的准确率和更好的会话回复效果,为公众贡献了模型检查点 / 演示和代码。
May, 2022
我们提出了 InDEX,这是一个针对填空测试的印度尼西亚习语和表达数据集,其中包含 10438 个独特的句子,用于 289 个习语和表达式,我们生成了 15 种不同类型的干扰,从而形成了一个大型的填空式语料库。通过实验,发现将定义与随机初始化结合是增强基线模型并提高填空测试模型性能的更好方法。
Nov, 2022
本文基于黑名单方法,使用一个新的评估方法 CIBB 测试数据集,对机器翻译系统的成语翻译质量进行了评估,结果表明常见错误类型为逐字逐句字面翻译,黑名单方法可以有效发现该种错误类型。
Nov, 2017
本文提出了一种多语言对抗训练模型,以判断一个句子是否包含习语表达。该模型利用不同多语言最先进的基于转换器的语言模型(即多语言 BERT 和 XLM-Roberta)的预训练上下文表示以及对抗性训练,提高模型的泛化能力和鲁棒性,在不依赖于人工创造的特征,知识库或除目标数据集以外的其他数据集的情况下,我们的模型取得了有竞争力的结果,在 SubTask A(零样本)设定中排名第 6 位,在 SubTask A(单样本)设定中排名第 15 位。
Jun, 2022
使用大型语言模型开发的多语言习语知识库(IdiomKB)能够提高机器翻译模型的性能,通过检索习语的比喻含义,使较小的模型在翻译过程中得到更全面的理解。
Aug, 2023
本文提出了中文成语改写(CIP)任务,以将包含成语的句子重新表述为不成语的句子并保留原本的意思,从而方便处理中文数据集和提高中文 NLP 任务的性能。本研究使用人与机器协作建立了一个包含 115,530 个句子对的大规模 CIP 数据集,并且使用三种基线模型和两种新方法,表现更好。
Apr, 2022
本文提出了一个大规模的中文填空测试数据集 ChID,用于研究汉语特有的习语理解,该数据集以候选成语替换文章中的成语,考察了候选成语的设计和成语表示对最先进模型的成绩表现的影响,结果显示机器准确率明显低于人类准确率,为今后的进一步研究留下了许多空间。
Jun, 2019