Normalisation par lots


Révision datée du 28 janvier 2024 à 11:55 par Pitpitt (discussion | contributions) (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

Définition

Méthode qui permet de rendre un réseau de neurones artificiels plus stable et plus rapide, par la normalisation des données à l'entrée des couches, et ce, en les recentrant et en les remettant à l'échelle.

Compléments

Autrement dit, traitement des données au cours duquel sont normalisées les entrées de chaque couche de neurones.

Français

normalisation par lots

normalisation de lots

À éviter: « normalisation par batch ».

Anglais

batch normalisation

batch normalization

Sources

Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2016), Deep Learning, Cambridge, The MIT Press, 775 pages (Version française).

Source: Termino

Source : 24pm Academy