« Normalisation par lots » : différence entre les versions
Aucun résumé des modifications |
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
||
Ligne 18 : | Ligne 18 : | ||
'''batch normalization''' | '''batch normalization''' | ||
==Sources== | |||
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages. | Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages. |
Dernière version du 28 janvier 2024 à 10:55
Définition
Méthode qui permet de rendre un réseau de neurones artificiels plus stable et plus rapide, par la normalisation des données à l'entrée des couches, et ce, en les recentrant et en les remettant à l'échelle.
Compléments
Autrement dit, traitement des données au cours duquel sont normalisées les entrées de chaque couche de neurones.
Français
normalisation par lots
normalisation de lots
À éviter: « normalisation par batch ».
Anglais
batch normalisation
batch normalization
Sources
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2016), Deep Learning, Cambridge, The MIT Press, 775 pages (Version française).
Contributeurs: Claude Coulombe, Jacques Barolet, Julie Roy, Patrick Drouin, wiki