« Normalisation par lots » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 33 : | Ligne 33 : | ||
[[Category:Termino 2019]] | [[Category:Termino 2019]] | ||
[[Category: | [[Category:Publication]] |
Version du 10 octobre 2023 à 14:08
Définition
Méthode qui permet de rendre un réseau de neurones artificiels plus stable et plus rapide, par la normalisation des données à l'entrée des couches, et ce, en les recentrant et en les remettant à l'échelle.
Compléments
Autrement dit, traitement des données au cours duquel sont normalisées les entrées de chaque couche de neurones.
Français
normalisation par lots
normalisation de lots
À éviter: « normalisation par batch ».
Anglais
batch normalisation
batch normalization
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2016), Deep Learning, Cambridge, The MIT Press, 775 pages (Version française).
Contributeurs: Claude Coulombe, Jacques Barolet, Julie Roy, Patrick Drouin, wiki