« Échelonnage des poids » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(7 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== en construction ==
== Définition ==
== Définition ==
En [[apprentissage profond]], méthode d'approximation par [[échantillonnage]] utilisée en [[inférence]] (c.-à-d. après l'étape d'[[entraînement]], donc sur un [[modèle]] entraîné) pour tenir compte de l'effet de l'[[Extinction de neurone|extinction de neurones]] (dropout) au moment de l'[[entraînement]].


== Français ==
== Français ==
'''Échelonnage des poids'''
'''échelonnage des poids'''
   
   
== Anglais ==
== Anglais ==
Ligne 10 : Ligne 9 :




<small>
==Sources==


[https://www.apprentissageprofond.org/  Source :  ''L'apprentissage profond'',  Ian Goodfellow, Yoshua Bengio et Aaron Courville  Éd. Massot 2018 page 270  ]
[https://www.apprentissageprofond.org/  Source :  ''L'apprentissage profond'',  Ian Goodfellow, Yoshua Bengio et Aaron Courville  Éd. Massot 2018 page 270  ]


[[Catégorie:Vocabulaire]]
[https://medium.com/konvergen/understanding-dropout-ddb60c9f98aa  Source : ''Understanding droput'', Roan Gylberth 2019]
[[Catégorie:App-profond-livre]]
 
[[Catégorie:Apprentissage profond]]  
[[Catégorie:Apprentissage profond]]  
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]


{{DEFAULTSORT: Echelonnage des poids }}
{{DEFAULTSORT: Echelonnage des poids }}

Dernière version du 28 janvier 2024 à 15:19

Définition

En apprentissage profond, méthode d'approximation par échantillonnage utilisée en inférence (c.-à-d. après l'étape d'entraînement, donc sur un modèle entraîné) pour tenir compte de l'effet de l'extinction de neurones (dropout) au moment de l'entraînement.

Français

échelonnage des poids

Anglais

weight scaling


Sources

Source : L'apprentissage profond, Ian Goodfellow, Yoshua Bengio et Aaron Courville Éd. Massot 2018 page 270

Source : Understanding droput, Roan Gylberth 2019