« Normalisation par lots » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
Méthode qui permet de rendre un [[réseau de neurones artificiels]] plus stable et plus rapide, par la normalisation des données à l'entrée des [[couche]]s, et ce, en les recentrant et en les remettant à l'échelle. | |||
== Compléments == | |||
Autrement dit, traitement des données au cours duquel sont normalisées les entrées de chaque couche de neurones. | |||
==Français== | ==Français== |
Version du 10 octobre 2023 à 14:04
Définition
Méthode qui permet de rendre un réseau de neurones artificiels plus stable et plus rapide, par la normalisation des données à l'entrée des couches, et ce, en les recentrant et en les remettant à l'échelle.
Compléments
Autrement dit, traitement des données au cours duquel sont normalisées les entrées de chaque couche de neurones.
Français
normalisation par lots
normalisation de lots
À éviter: « normalisation par batch ».
Anglais
batch normalisation
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2016), Deep Learning, Cambridge, The MIT Press, 775 pages (Version française).
Contributeurs: Claude Coulombe, Jacques Barolet, Julie Roy, Patrick Drouin, wiki