基于语言建模的多任务学习:问句生成
本文提出一种生成式机器理解模型,用于同时学习根据文档提问和回答问题,采用序列到序列框架编码文档并生成问题,模型在 SQuAD 语料库上获得显著性能提升,实验证明,模型在同时学习两个任务方面受益。我们认为这种联合模型的新颖性提供了一个超越架构工程的机器理解视角,是实现自主信息寻找的第一步。
Jun, 2017
我们提出了一种基于查询的生成模型,用于解决问题生成和问题回答两个任务, 在查询理解方面,该模型使用经典的编码器 - 解码器框架,通过与多个角度的文章进行匹配来执行查询理解。在进行培训时,我们利用政策梯度强化学习算法来克服暴露偏差,这是由于交叉熵损失的序列学习而引起的主要问题。
Sep, 2017
本篇论文提出了一种新的 Attentional Encoder-Decoder Recurrent Neural Network 模型用于自动生成问题,该模型融合语言特征和句子嵌入来捕捉句子和单词层面上的意义,并采用复制机制和特殊答案信号生成多样化的问题,在基准问题生成数据集上取得了 19.98 的 Bleu_4 结果,超过了以前发表的所有结果,并且人类评估显示这些新增的功能提高了生成的问题的质量。
Sep, 2018
使用多任务学习和强化学习的方法,通过支持事实的多次跳转生成相关问题,相比于单次跳转模型,我们的模型在 HotPotQA 数据集上表现更好(同时在自动评估指标如 BLEU、METEOR 和 ROUGE 以及人工评估指标中都有着更高的质量和覆盖率)。
Apr, 2020
我们提出了一种自动化的大语言模型(LLM)转换方法,可以产生能够在每个预测中估计不确定性的具有不确定性感知能力的 LLM。我们的方法与模型和数据无关,计算效率高,不依赖外部模型或系统。我们在选择性问答环境下评估了转换模型,即尽可能回答问题同时保持给定的准确性,在必要时放弃提供预测。作为我们结果的一部分,我们在 SQuAD 抽取式问答任务和 TruthfulQA 生成式问答任务上测试了 BERT 和 Llama 2 模型变体。我们表明,使用我们方法提供的不确定性估计有选择性地回答问题,可以显著提高准确性,相比直接使用模型概率。
Nov, 2023
该研究提出通过多任务学习获得额外监督的方法,解决多模态视频问答建立大规模数据集昂贵且现有基准数据集较小的挑战。该方法由多模态视频问答网络、时间检索网络和模态对齐网络组成,通过层次共享中间层同时解决相关的辅助任务提供额外的协同监督,并提出多任务比率调度的方法进行训练。实验结果表明,该方法在公开数据集 TVQA 上实现了最先进的效果。
May, 2019
本论文针对问题回答和问题生成两个任务之间内在联系,提出一个联合训练框架,使用序列到序列模型和循环神经网络模型,通过概率相关性指导训练过程来提高两个任务的性能,实验证明该框架能够显著提高问题回答和问题生成两个任务的表现。
Jun, 2017
该论文提出了一种用于 COQA 多语言问题解答的系统,该系统使用多种模型变体在数据增强、语段检索和答案生成三个主要组件上进行了研究,并结合语言模型预训练和数据增强等方法有效提高了针对低资源语言的表现。
May, 2022