对抗性环境下的 Q&A 演员 - 评论家网络
通过提出一个新的对抗生成算法 AddSentDiverse 和改进模型的语义关系学习能力,作者在 Stanford 问题问答数据集上实现了一个近 36.5% 的 F1 得分提升并提高了模型的鲁棒性。
Apr, 2018
本文提出一种采用对抗训练框架来解决深度学习中新领域适应问题的方法,将传统 QA 模型和判别器组合,以对抗的方式进行训练,从而实现 QA 模型学习到领域不变特征,并在 MRQA Shared Task 2019 中取得了优于基线模型的性能。
Oct, 2019
本文通过在神经网络框架中密切模拟问题,引入句法信息来帮助编码问题,并将不同类型的问题和共享信息建模为适应性任务,并提出适应性模型,从而在 Stanford 问题回答数据集(SQuAD)上证明这些方法可帮助获得比竞争基准更好的结果。
Mar, 2017
通过引入一种收集对抗性人工编写的问题的界面,我们利用人类生成的数据来开发让机器更好应对复杂任务的对抗性数据集,这对于开发问答人工智能是至关重要的。我们的界面不仅为创新的 Quiz Bowl AI 项目 QANTA 收集训练数据,同时也是为问答系统未来对抗性数据收集的一个概念验证。
Mar, 2024
本文通过定量和定性分析现有端到端神经模型在斯坦福问答数据集上的结果,旨在理解和比较其特性,以迈向实现在多个领域中的泛化能力。研究发现,预测错误反映了某些模型特定偏差,本文对此进行了进一步讨论。
Jun, 2018
本研究提出了一种针对社区问答的二分类(相关 / 不相关)策略,采用敌对训练框架缓解标签失衡问题,并使用生成模型迭代地抽样一组具有挑战性的负样本,最终提高模型预测性能。此外,我们使用多尺度匹配方法显式地检查不同粒度级别的单词和 ngram 之间的相关性。在 SemEval 2016 和 SemEval 2017 数据集上进行评估,结果表明该方法达到或接近最佳性能。
Apr, 2018
提出基于语言部分的弹性框架,使用语义相关的基本问题作为可控噪声,评估 VQA 模型的鲁棒性,并提出新的鲁棒性度量标准 R_score 和两个大规模的基础问题数据集(BQDs),以规范 VQA 模型的鲁棒性分析。
Nov, 2017