BERT
Définition
Acronyme anglais de Bidirectional Encoder Representations from Transformers (Représentations d'encodeur bidirectionnel à partir de réseaux autoattentifs, BERT fut le premier grand modèle de langue, créé par une équipe de Google en 2018.
BERT utilise une stratégie d'apprentissage profond du traitement automatique du langage naturel (TALN) dans lequel les réseaux de neurones profonds utilisent des modèles bidirectionnels avec une représentation du langage non supervisée.
Français
BERT
Anglais
BERT
Bidirectional Encoder Representations from Transformers
Contributeurs: Claude Coulombe, Imane Meziani, Jean Benoît Morel, wiki