« Normalisation par lots » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
Ligne 18 : Ligne 18 :
'''batch normalization'''
'''batch normalization'''


<small>
==Sources==


Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Dernière version du 28 janvier 2024 à 10:55

Définition

Méthode qui permet de rendre un réseau de neurones artificiels plus stable et plus rapide, par la normalisation des données à l'entrée des couches, et ce, en les recentrant et en les remettant à l'échelle.

Compléments

Autrement dit, traitement des données au cours duquel sont normalisées les entrées de chaque couche de neurones.

Français

normalisation par lots

normalisation de lots

À éviter: « normalisation par batch ».

Anglais

batch normalisation

batch normalization

Sources

Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2016), Deep Learning, Cambridge, The MIT Press, 775 pages (Version française).

Source: Termino

Source : 24pm Academy