« Modèle préentraîné » : différence entre les versions


m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
Aucun résumé des modifications
Ligne 4 : Ligne 4 :
== Compléments ==  
== Compléments ==  
Des exemples de grands modèles préentraînés sont MobileNet (pour la [[vision artificielle]]), [[BERT]], la série des [[grand modèle de langues|grands modèles de langues]] [[GPT]]-''x'' et LLaMA.
Des exemples de grands modèles préentraînés sont MobileNet (pour la [[vision artificielle]]), [[BERT]], la série des [[grand modèle de langues|grands modèles de langues]] [[GPT]]-''x'' et LLaMA.
Étant donnée la taille importante de ces modèles, l'étape de préentrainement est généralement réalisée par un nombre restreint d’entreprises possédant des fermes de serveurs [[infonuagique|infonuagiques]],essentiellement des [[processeur graphique|processeurs graphiques]].


== Français ==
== Français ==
Ligne 22 : Ligne 24 :


[[Category:Apprentissage profond]]
[[Category:Apprentissage profond]]
[[Category:Publication]]

Version du 30 janvier 2024 à 15:16

Définition

Un modèle préentraîné est un modèle ou un réseau de neurones sauvegardé et créé à partir d'un ensemble de données pour résoudre un problème similaire.

Compléments

Des exemples de grands modèles préentraînés sont MobileNet (pour la vision artificielle), BERT, la série des grands modèles de langues GPT-x et LLaMA.

Étant donnée la taille importante de ces modèles, l'étape de préentrainement est généralement réalisée par un nombre restreint d’entreprises possédant des fermes de serveurs infonuagiques,essentiellement des processeurs graphiques.

Français

modèle préentraîné

Anglais

pre-trained model


Sources

Source: Google machine learning glossary