« Normalisation par lots » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
==Définition==
==Définition==
Traitement des données au cours duquel sont normalisées les entrées de chaque couche de neurones.
Méthode qui permet de rendre un [[réseau de neurones artificiels]] plus stable et plus rapide, par la normalisation des données à l'entrée des [[couche]]s, et ce, en les recentrant et en les remettant à l'échelle.
 
== Compléments ==
 
Autrement dit, traitement des données au cours duquel sont normalisées les entrées de chaque couche de neurones.


==Français==
==Français==

Version du 10 octobre 2023 à 14:04

Définition

Méthode qui permet de rendre un réseau de neurones artificiels plus stable et plus rapide, par la normalisation des données à l'entrée des couches, et ce, en les recentrant et en les remettant à l'échelle.

Compléments

Autrement dit, traitement des données au cours duquel sont normalisées les entrées de chaque couche de neurones.

Français

normalisation par lots

normalisation de lots

À éviter: « normalisation par batch ».

Anglais

batch normalisation


Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2016), Deep Learning, Cambridge, The MIT Press, 775 pages (Version française).

Source: Termino

Source : 24pm Academy