« Échauffement du taux d'apprentissage » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
(Une version intermédiaire par le même utilisateur non affichée) | |||
Ligne 4 : | Ligne 4 : | ||
L'échauffement du taux d'apprentissage désigne une méthode, ou plus spécifiquement une technique de régularisation du '''[[réseau de neurones]]''', qui assure une stabilité dans la phase d'apprentissage du modèle qui effectue des tâches comme la reconnaissance d'images ou le '''[[traitement de la langue naturelle]]'''. | L'échauffement du taux d'apprentissage désigne une méthode, ou plus spécifiquement une technique de régularisation du '''[[réseau de neurones]]''', qui assure une stabilité dans la phase d'apprentissage du modèle qui effectue des tâches comme la reconnaissance d'images ou le '''[[traitement de la langue naturelle]]'''. | ||
Voir aussi '''[[ | Voir aussi '''[[échauffement linéaire]]''', '''[[réseau antagoniste génératif]]''', '''[[taux d'apprentissage]]''' et '''[[Warm-Up]]''' | ||
== Français == | == Français == |
Dernière version du 9 novembre 2024 à 14:24
en construction
Définition
L'échauffement du taux d'apprentissage désigne une méthode, ou plus spécifiquement une technique de régularisation du réseau de neurones, qui assure une stabilité dans la phase d'apprentissage du modèle qui effectue des tâches comme la reconnaissance d'images ou le traitement de la langue naturelle.
Voir aussi échauffement linéaire, réseau antagoniste génératif, taux d'apprentissage et Warm-Up
Français
échauffement du taux d'apprentissage
Anglais
learning rate warm-up
learning rate warmup
LR warm-up
LR warmup
Learing Rate Warm-up is a method, or more secifically, a network regularization technique, that ensures stability in the initial phase of training for computer vision and natural language processing tasks.
Source
Contributeurs: Arianne