« Échauffement du taux d'apprentissage » : différence entre les versions


Aucun résumé des modifications
 
Ligne 4 : Ligne 4 :
L'échauffement du taux d'apprentissage désigne une méthode, ou plus spécifiquement une technique de régularisation du '''[[réseau de neurones]]''', qui assure une stabilité dans la phase d'apprentissage du modèle qui effectue des tâches comme la reconnaissance d'images ou le '''[[traitement de la langue naturelle]]'''.
L'échauffement du taux d'apprentissage désigne une méthode, ou plus spécifiquement une technique de régularisation du '''[[réseau de neurones]]''', qui assure une stabilité dans la phase d'apprentissage du modèle qui effectue des tâches comme la reconnaissance d'images ou le '''[[traitement de la langue naturelle]]'''.


Voir aussi '''[[Linear Warm-Up]]''', '''[[réseau antagoniste génératif]]''', '''[[taux d'apprentissage]]''' et '''[[Warm-Up]]'''
Voir aussi '''[[échauffement linéaire]]''', '''[[réseau antagoniste génératif]]''', '''[[taux d'apprentissage]]''' et '''[[Warm-Up]]'''


== Français ==
== Français ==

Dernière version du 9 novembre 2024 à 14:24

en construction

Définition

L'échauffement du taux d'apprentissage désigne une méthode, ou plus spécifiquement une technique de régularisation du réseau de neurones, qui assure une stabilité dans la phase d'apprentissage du modèle qui effectue des tâches comme la reconnaissance d'images ou le traitement de la langue naturelle.

Voir aussi échauffement linéaire, réseau antagoniste génératif, taux d'apprentissage et Warm-Up

Français

échauffement du taux d'apprentissage

Anglais

learning rate warm-up

learning rate warmup

LR warm-up

LR warmup

Learing Rate Warm-up is a method, or more secifically, a network regularization technique, that ensures stability in the initial phase of training for computer vision and natural language processing tasks.

Source

Source : Baeldung

Source : Open Review

Contributeurs: Arianne