« Modèle préentraîné » : différence entre les versions
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
Aucun résumé des modifications |
||
Ligne 4 : | Ligne 4 : | ||
== Compléments == | == Compléments == | ||
Des exemples de grands modèles préentraînés sont MobileNet (pour la [[vision artificielle]]), [[BERT]], la série des [[grand modèle de langues|grands modèles de langues]] [[GPT]]-''x'' et LLaMA. | Des exemples de grands modèles préentraînés sont MobileNet (pour la [[vision artificielle]]), [[BERT]], la série des [[grand modèle de langues|grands modèles de langues]] [[GPT]]-''x'' et LLaMA. | ||
Étant donnée la taille importante de ces modèles, l'étape de préentrainement est généralement réalisée par un nombre restreint d’entreprises possédant des fermes de serveurs [[infonuagique|infonuagiques]],essentiellement des [[processeur graphique|processeurs graphiques]]. | |||
== Français == | == Français == | ||
Ligne 22 : | Ligne 24 : | ||
[[Category:Apprentissage profond]] | [[Category:Apprentissage profond]] | ||
[[Category:Publication]] |
Version du 30 janvier 2024 à 15:16
Définition
Un modèle préentraîné est un modèle ou un réseau de neurones sauvegardé et créé à partir d'un ensemble de données pour résoudre un problème similaire.
Compléments
Des exemples de grands modèles préentraînés sont MobileNet (pour la vision artificielle), BERT, la série des grands modèles de langues GPT-x et LLaMA.
Étant donnée la taille importante de ces modèles, l'étape de préentrainement est généralement réalisée par un nombre restreint d’entreprises possédant des fermes de serveurs infonuagiques,essentiellement des processeurs graphiques.
Français
modèle préentraîné
Anglais
pre-trained model
Sources
Contributeurs: Claire Gorjux, Claude Coulombe, Imane Meziani, Jacques Barolet, Patrick Drouin, wiki, Robert Meloche