Oct, 2018

BERT: 深度双向变换器的预训练用于语言理解

TL;DR介绍了一种新的语言表示模型 BERT,可以通过预训练深度双向表示生成模型从未标记的文本中学习,通过微调可用于广泛的任务,包括自然语言处理。