Learning to Augment for Data_Scarce Domain BERT Knowledge Distillation 尽管诸如BERT之类的经过预训练的语言模型在各种自然语言处理任务中均取得了令人满意的性能,但要在实时... 大小:738.39 KB | 2021-01-24 09:17:47