May, 2019
利用大脑的自然语言处理能力解释和改进机器的自然语言处理
Interpreting and improving natural-language processing (in machines) with natural language-processing (in the brain)
Mariya Toneva, Leila Wehbe
TL;DR提出了一种新颖的解释方法,利用人脑阅读复杂自然文本时的脑成像记录来解释最新的四个 NLP 模型 ——ELMo、USE、BERT 和 Transformer-XL 中的词和序列嵌入,研究它们在层深度、上下文长度和注意类型之间的差异,并推测改变 BERT 以更好地对齐脑成像记录将使其更好地理解语言。