« Échelonnage des poids » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
En [[apprentissage profond]], méthode d'approximation utilisée en [[inférence]] (après l'étape d'[[entraînement]], donc sur un [[modèle]] entraîné) pour tenir compte de l'effet de l'[[Extinction de neurone|extinction de neurones]] (dropout) au moment de l'[[entraînement]]. | |||
== Français == | == Français == | ||
''' | '''échelonnage des poids''' | ||
== Anglais == | == Anglais == | ||
Ligne 17 : | Ligne 16 : | ||
[[Catégorie:App-profond-livre]] | [[Catégorie:App-profond-livre]] | ||
[[Catégorie:Apprentissage profond]] | [[Catégorie:Apprentissage profond]] | ||
[[Publication]] | |||
{{DEFAULTSORT: Echelonnage des poids }} | {{DEFAULTSORT: Echelonnage des poids }} |
Version du 19 décembre 2023 à 15:41
Définition
En apprentissage profond, méthode d'approximation utilisée en inférence (après l'étape d'entraînement, donc sur un modèle entraîné) pour tenir compte de l'effet de l'extinction de neurones (dropout) au moment de l'entraînement.
Français
échelonnage des poids
Anglais
weight scaling
Source : L'apprentissage profond, Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018 page 270 Publication
Contributeurs: Jacques Barolet, Patrick Drouin, wiki