« Modèle préentraîné » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
(11 versions intermédiaires par 4 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Un modèle préentraîné est un modèle | Un modèle préentraîné est un [[modèle d'apprentissage]], typiquement un grand réseau de neurones profond, entraîné pour une tâche générique sur un immense jeu de données. | ||
Le modèle préentraîné est ensuite sauvegardé et utilisé plus tard pour résoudre un problème similaire grâce à l'[[apprentissage par transfert]]. | |||
== Compléments == | == Compléments == | ||
Un grand modèle préentraîné pour résoudre un problème générique apprend toutes sortes de régularités statistiques propres au type de données (images, voix, textes) sur lequel il est entraîné. Une fois entraîné, un grand modèle peut être utilisé pour résoudre d’autres problèmes faisant appel au même type de données. Un [[peaufinage]] du modèle est habituellement nécessaire en l'entraînant avec des données spécifiques à une nouvelle tâche. | |||
<hr/> | |||
Des exemples de grands modèles préentraînés sont MobileNet (pour la [[vision artificielle]]), [[BERT]], la série des [[grand modèle de langues|grands modèles de langues]] [[GPT]]-''x'' et LLaMA. | Des exemples de grands modèles préentraînés sont MobileNet (pour la [[vision artificielle]]), [[BERT]], la série des [[grand modèle de langues|grands modèles de langues]] [[GPT]]-''x'' et LLaMA. | ||
<hr/> | |||
Étant donnée la taille importante de ces modèles, l'étape de préentrainement est généralement réalisée par un nombre restreint d’entreprises possédant des fermes de serveurs [[infonuagique|infonuagiques]] équipés de [[processeur graphique|processeurs graphiques]] | |||
== Français == | == Français == | ||
''' modèle préentraîné ''' | '''modèle préentraîné''' | ||
'''modèle pré-entraîné''' <small>(forme déconseillée)</small> | |||
== Anglais == | == Anglais == | ||
''' pre-trained model ''' | '''pre-trained model''' | ||
'''pretrained model''' | |||
'''deep generative model''' | |||
[https://developers.google.com/machine-learning/glossary/ Source: Google machine learning glossary ] | ==Sources== | ||
[https://developers.google.com/machine-learning/glossary/ Source : Google machine learning glossary ] | |||
[https://catalogue.edulib.org/fr/cours/VIARENA/ Source : Cours VIARENA ] | |||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
[[Category:Apprentissage profond]] | [[Category:Apprentissage profond]] |
Dernière version du 6 octobre 2024 à 10:11
Définition
Un modèle préentraîné est un modèle d'apprentissage, typiquement un grand réseau de neurones profond, entraîné pour une tâche générique sur un immense jeu de données.
Le modèle préentraîné est ensuite sauvegardé et utilisé plus tard pour résoudre un problème similaire grâce à l'apprentissage par transfert.
Compléments
Un grand modèle préentraîné pour résoudre un problème générique apprend toutes sortes de régularités statistiques propres au type de données (images, voix, textes) sur lequel il est entraîné. Une fois entraîné, un grand modèle peut être utilisé pour résoudre d’autres problèmes faisant appel au même type de données. Un peaufinage du modèle est habituellement nécessaire en l'entraînant avec des données spécifiques à une nouvelle tâche.
Des exemples de grands modèles préentraînés sont MobileNet (pour la vision artificielle), BERT, la série des grands modèles de langues GPT-x et LLaMA.
Étant donnée la taille importante de ces modèles, l'étape de préentrainement est généralement réalisée par un nombre restreint d’entreprises possédant des fermes de serveurs infonuagiques équipés de processeurs graphiques
Français
modèle préentraîné
modèle pré-entraîné (forme déconseillée)
Anglais
pre-trained model
pretrained model
deep generative model
Sources
Contributeurs: Claire Gorjux, Claude Coulombe, Imane Meziani, Jacques Barolet, Patrick Drouin, wiki, Robert Meloche