« BERT » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Acronyme anglais de ''Bidirectional Encoder Representations from Transformers'' (Représentations d'encodeur bidirectionnel à partir de transformateurs), BERT est un type de stratégie d'apprentissage profond du traitement du langage naturel dans lequel les réseaux de neurones profonds utilisent des modèles bidirectionnels avec une représentation du langage non supervisée. | |||
== Français == | == Français == | ||
Ligne 19 : | Ligne 16 : | ||
[https://en.wikipedia.org/wiki/BERT_(language_model) Source : Wikipedia (BERT - Language model) ] | [https://en.wikipedia.org/wiki/BERT_(language_model) Source : Wikipedia (BERT - Language model) ] | ||
[https:// | [https://definir-tech.com/representations-codeur-bidirectionnel-des-transformateurs-bert/ Source: Definir Tech] | ||
[[Catégorie: | [[Catégorie:publication]] |
Version du 23 novembre 2021 à 13:44
Définition
Acronyme anglais de Bidirectional Encoder Representations from Transformers (Représentations d'encodeur bidirectionnel à partir de transformateurs), BERT est un type de stratégie d'apprentissage profond du traitement du langage naturel dans lequel les réseaux de neurones profonds utilisent des modèles bidirectionnels avec une représentation du langage non supervisée.
Français
BERT
Anglais
BERT
Bidirectional Encoder Representations from Transformers
Contributeurs: Claude Coulombe, Imane Meziani, Jean Benoît Morel, wiki