« Échelonnage des poids » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
En [[apprentissage profond]], méthode d'approximation utilisée en [[inférence]] (après l'étape d'[[entraînement]], donc sur un [[modèle]] entraîné) pour tenir compte de l'effet de l'[[Extinction de neurone|extinction de neurones]] (dropout) au moment de l'[[entraînement]].  
En [[apprentissage profond]], méthode d'approximation utilisée en [[inférence]] (c.-à-d. après l'étape d'[[entraînement]], donc sur un [[modèle]] entraîné) pour tenir compte de l'effet de l'[[Extinction de neurone|extinction de neurones]] (dropout) au moment de l'[[entraînement]].  


== Français ==
== Français ==

Version du 19 décembre 2023 à 15:42

Définition

En apprentissage profond, méthode d'approximation utilisée en inférence (c.-à-d. après l'étape d'entraînement, donc sur un modèle entraîné) pour tenir compte de l'effet de l'extinction de neurones (dropout) au moment de l'entraînement.

Français

échelonnage des poids

Anglais

weight scaling


Source : L'apprentissage profond, Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018 page 270 Publication