« Échelonnage des poids » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
En [[apprentissage profond]], méthode d'approximation utilisée en [[inférence]] (après l'étape d'[[entraînement]], donc sur un [[modèle]] entraîné) pour tenir compte de l'effet de l'[[Extinction de neurone|extinction de neurones]] (dropout) au moment de l'[[entraînement]]. | En [[apprentissage profond]], méthode d'approximation utilisée en [[inférence]] (c.-à-d. après l'étape d'[[entraînement]], donc sur un [[modèle]] entraîné) pour tenir compte de l'effet de l'[[Extinction de neurone|extinction de neurones]] (dropout) au moment de l'[[entraînement]]. | ||
== Français == | == Français == |
Version du 19 décembre 2023 à 15:42
Définition
En apprentissage profond, méthode d'approximation utilisée en inférence (c.-à-d. après l'étape d'entraînement, donc sur un modèle entraîné) pour tenir compte de l'effet de l'extinction de neurones (dropout) au moment de l'entraînement.
Français
échelonnage des poids
Anglais
weight scaling
Source : L'apprentissage profond, Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018 page 270 Publication
Contributeurs: Jacques Barolet, Patrick Drouin, wiki