« Modèle préentraîné » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 3 : | Ligne 3 : | ||
== Compléments == | == Compléments == | ||
Des exemples de grands modèles préentraînés sont MobileNet (pour la [[vision artificielle]]), BERT, la série des [[grand modèle de langues|grands modèles de langues]] GPT-''x'' et LLaMA. | Des exemples de grands modèles préentraînés sont MobileNet (pour la [[vision artificielle]]), [[BERT]], la série des [[grand modèle de langues|grands modèles de langues]] [[GPT]]-''x'' et LLaMA. | ||
== Français == | == Français == |
Version du 1 août 2023 à 14:42
Définition
Un modèle préentraîné est un modèle ou à un réseau de neurones sauvegardé et créé d'autre à partir d'un ensemble de données pour résoudre un problème similaire.
Compléments
Des exemples de grands modèles préentraînés sont MobileNet (pour la vision artificielle), BERT, la série des grands modèles de langues GPT-x et LLaMA.
Français
modèle préentraîné
Anglais
pre-trained model
Contributeurs: Claire Gorjux, Claude Coulombe, Imane Meziani, Jacques Barolet, Patrick Drouin, wiki, Robert Meloche