BERT (Bidirectional Encoder Representations from Transformers) es un modelo de preentrenamiento de PNL de código abierto desarrollado por investigadores de Google en 2018. Como descendiente directo de GPT (Modelos de lenguaje generalizado), BERT ha superado a varios modelos en PNL y ha proporcionado los mejores resultados en pregunta-respuesta (SQuAD v1.1), Inferencia del lenguaje natural (MNLI) y otros marcos.
Recomendamos este artículo en Medium en: Understanding BERT: Is it a Game Changer in NLP?