« Normalisation par lots » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
 
(3 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 16 : Ligne 16 :
'''batch normalisation'''
'''batch normalisation'''


'''batch normalization'''


<small>
==Sources==


Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.
Ligne 30 : Ligne 31 :
[[Catégorie:App-profond-livre]]  
[[Catégorie:App-profond-livre]]  
[[Category:Intelligence artificielle]]
[[Category:Intelligence artificielle]]
[[Category:Termino 2019]]


[[Category:GRAND LEXIQUE FRANÇAIS]]
 
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 28 janvier 2024 à 10:55

Définition

Méthode qui permet de rendre un réseau de neurones artificiels plus stable et plus rapide, par la normalisation des données à l'entrée des couches, et ce, en les recentrant et en les remettant à l'échelle.

Compléments

Autrement dit, traitement des données au cours duquel sont normalisées les entrées de chaque couche de neurones.

Français

normalisation par lots

normalisation de lots

À éviter: « normalisation par batch ».

Anglais

batch normalisation

batch normalization

Sources

Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2018), Apprentissage profond, Paris, Massot éditions, 800 pages.

Source: Goodfellow, Ian; Bengio, Yoshua et Aaron Courville (2016), Deep Learning, Cambridge, The MIT Press, 775 pages (Version française).

Source: Termino

Source : 24pm Academy