关键词unsupervised neural model
搜索结果 - 2
- AAAI用填空翻译和一致性优化实现零样本通识常识问答
本研究针对常识问题回答(Commonsense question answering)的挑战,提出了利用预训练语言模型中的 “隐含知识”,通过四种翻译方法,探索如何更好地调动语言模型中的常识知识。研究通过在零样本情况下对三个 CQA 数据集 - AAAI学习选择两方面信息以进行文档级文本内容操作
本文提出了一个新的实际任务,文档级文本内容操作,它旨在在更改内容的同时保留文本样式,并提出一种基于交互式注意机制的无监督神经模型,探索了在该任务中构建伪训练对的后向翻译方法的有效性。实证结果表明,该方法优于竞争方法,并且模型还在句子级数据集