BERT


Définition

Acronyme anglais de Bidirectional Encoder Representations from Transformers (Représentations d'encodeur bidirectionnel à partir de transformateurs), BERT est un type de stratégie d'apprentissage profond du traitement du langage naturel dans lequel les réseaux de neurones profonds utilisent des modèles bidirectionnels avec une représentation du langage non supervisée.

Français

BERT

Anglais

BERT

Bidirectional Encoder Representations from Transformers



Source : Wikipedia (BERT - Language model)

Source: Definir Tech