关键词multiple-choice reading comprehension
搜索结果 - 3
- NLP 分类任务的信息论分析方法
该研究提供了一个信息理论框架,用于分析文本分类任务中输入对输出的影响,研究发现多选阅读理解任务中,上下文与问题对输出的影响随着数据集的挑战程度增加而减少;而情感分类任务中,输入文本的语义含义在决定情感时比其语言表达更为重要。
- BERT 从多项选择阅读理解数据中学到了什么?
通过对多选阅读理解数据集进行实验,本文发现:1)BERT 模型主要是依靠关键字来进行答案预测,而不是通过语义理解和推理;2)BERT 模型不需要正确的句法信息来解决任务;3)这些数据集中存在着一些人工痕迹,即使没有完整上下文也可以解决任务。
- 选项比较网络用于多项选择阅读理解
本文研究了多选阅读理解中,通过词级别对选项之间的关系进行比较获得更好的推理能力的方法,并在 RACE 数据集中的表现超过其他模型,成为第一个超过 Amazon Mechanical Turk 表现的模型。