« BERT » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
Acronyme anglais de ''Bidirectional Encoder Representations from Transformers'' (Représentations d'encodeur bidirectionnel à partir de ''[[Réseau autoattentif|réseaux autoattentifs]]'', BERT fut le premier [[grand modèle de langues]], créé par une équipe de Google en 2018.
Acronyme anglais de ''Bidirectional Encoder Representations from Transformers'' (Représentations d'encodeur bidirectionnel à partir de ''[[Réseau autoattentif|réseaux autoattentifs]]'', BERT fut le premier grand [[modèle de langue]], créé par une équipe de Google en 2018.


BERT utilise une stratégie d'apprentissage profond du [[traitement automatique du langage naturel]] (TALN) dans lequel les réseaux de neurones profonds utilisent des modèles bidirectionnels avec une représentation du langage non supervisée.
BERT utilise une stratégie d'apprentissage profond du [[traitement automatique du langage naturel]] (TALN) dans lequel les réseaux de neurones profonds utilisent des modèles bidirectionnels avec une représentation du langage non supervisée.

Version du 24 mai 2023 à 18:57

Définition

Acronyme anglais de Bidirectional Encoder Representations from Transformers (Représentations d'encodeur bidirectionnel à partir de réseaux autoattentifs, BERT fut le premier grand modèle de langue, créé par une équipe de Google en 2018.

BERT utilise une stratégie d'apprentissage profond du traitement automatique du langage naturel (TALN) dans lequel les réseaux de neurones profonds utilisent des modèles bidirectionnels avec une représentation du langage non supervisée.

Français

BERT

Anglais

BERT

Bidirectional Encoder Representations from Transformers

Source : Wikipedia (BERT - Language model)

Source: Definir Tech