2   Artículos

 
en línea
Huajie Wang and Yinglin Wang    
The natural language model BERT uses a large-scale unsupervised corpus to accumulate rich linguistic knowledge during its pretraining stage, and then, the information is fine-tuned for specific downstream tasks, which greatly improves the understanding c... ver más
Revista: Information    Formato: Electrónico

« Anterior     Página: 1 de 1     Siguiente »