« BERT » : différence entre les versions


(Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' BERT''' == Anglais == ''' BERT''' BERT belongs to a class of NLP-based language algorithms known as... »)
 
m (Remplacement de texte : « ↵↵==Sources== » par «  ==Sources== »)
 
(11 versions intermédiaires par 4 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==en construction==
== Définition ==
Acronyme anglais de ''Bidirectional Encoder Representations from Transformers'' (Représentations d'encodeur bidirectionnel à partir de ''[[Réseau autoattentif|réseaux autoattentifs]]''.  Créé par une équipe de Google en 2018, BERT fut le premier grand [[modèle de langue]].
 
== Compléments ==


== Définition ==
BERT utilise une stratégie d'apprentissage profond du [[traitement automatique du langage naturel]] (TALN) dans lequel des [[Réseau autoattentif|réseaux autoattentifs]] sont entraînés d'une manière bidirectionnelle par [[apprentissage non supervisé]].
XXXXXXXXX


== Français ==
== Français ==
''' BERT'''
'''BERT'''


== Anglais ==
== Anglais ==
''' BERT'''
'''BERT'''
 
BERT belongs to a class of NLP-based language algorithms known as transformers. BERT is a massive pre-trained deeply bidirectional encoder-based transformer model that comes in two variants. BERT-Base has 110 million parameters, and BERT-Large has 340 million parameters.


<small>
'''Bidirectional Encoder Representations from Transformers'''
==Sources==


[https://ai.googleblog.com/2018/11/open-sourcing-bert-state-of-art-pre.html Source : googleblog]
[https://en.wikipedia.org/wiki/BERT_(language_model) Source : Wikipedia (BERT - Language model) ]


[https://www.kdnuggets.com/2021/11/guide-word-embedding-techniques-nlp.html Source : kdnuggets ]
[https://definir-tech.com/representations-codeur-bidirectionnel-des-transformateurs-bert/ Source: Definir Tech]


[[Catégorie:ENGLISH]]


[[Catégorie:vocabulary]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 30 août 2024 à 14:51

Définition

Acronyme anglais de Bidirectional Encoder Representations from Transformers (Représentations d'encodeur bidirectionnel à partir de réseaux autoattentifs. Créé par une équipe de Google en 2018, BERT fut le premier grand modèle de langue.

Compléments

BERT utilise une stratégie d'apprentissage profond du traitement automatique du langage naturel (TALN) dans lequel des réseaux autoattentifs sont entraînés d'une manière bidirectionnelle par apprentissage non supervisé.

Français

BERT

Anglais

BERT

Bidirectional Encoder Representations from Transformers

Sources

Source : Wikipedia (BERT - Language model)

Source: Definir Tech