« BERT » : différence entre les versions
Aucun résumé des modifications |
m (Remplacement de texte : « ↵↵↵ » par « ») |
||
(8 versions intermédiaires par 2 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Acronyme anglais de ''Bidirectional Encoder Representations from Transformers'' (Représentations d'encodeur bidirectionnel à partir de | Acronyme anglais de ''Bidirectional Encoder Representations from Transformers'' (Représentations d'encodeur bidirectionnel à partir de ''[[Réseau autoattentif|réseaux autoattentifs]]''. Créé par une équipe de Google en 2018, BERT fut le premier grand [[modèle de langue]]. | ||
== Compléments == | |||
BERT utilise une stratégie d'apprentissage profond du [[traitement automatique du langage naturel]] (TALN) dans lequel des [[Réseau autoattentif|réseaux autoattentifs]] sont entraînés d'une manière bidirectionnelle par [[apprentissage non supervisé]]. | |||
== Français == | == Français == | ||
Ligne 10 : | Ligne 14 : | ||
'''Bidirectional Encoder Representations from Transformers''' | '''Bidirectional Encoder Representations from Transformers''' | ||
==Sources== | |||
[https://en.wikipedia.org/wiki/BERT_(language_model) Source : Wikipedia (BERT - Language model) ] | [https://en.wikipedia.org/wiki/BERT_(language_model) Source : Wikipedia (BERT - Language model) ] | ||
Ligne 18 : | Ligne 20 : | ||
[https://definir-tech.com/representations-codeur-bidirectionnel-des-transformateurs-bert/ Source: Definir Tech] | [https://definir-tech.com/representations-codeur-bidirectionnel-des-transformateurs-bert/ Source: Definir Tech] | ||
[[Catégorie:ENGLISH]] | |||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] | |||
[[Catégorie: |
Dernière version du 29 janvier 2024 à 11:40
Définition
Acronyme anglais de Bidirectional Encoder Representations from Transformers (Représentations d'encodeur bidirectionnel à partir de réseaux autoattentifs. Créé par une équipe de Google en 2018, BERT fut le premier grand modèle de langue.
Compléments
BERT utilise une stratégie d'apprentissage profond du traitement automatique du langage naturel (TALN) dans lequel des réseaux autoattentifs sont entraînés d'une manière bidirectionnelle par apprentissage non supervisé.
Français
BERT
Anglais
BERT
Bidirectional Encoder Representations from Transformers
Sources
Contributeurs: Claude Coulombe, Imane Meziani, Jean Benoît Morel, wiki