« Sous-échantillonnage » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 26 : | Ligne 26 : | ||
<small> | <small> | ||
[https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels | [https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels Source: Amidi, Shervine et Afshine Amidi, ''Pense-bête de réseaux de neurones convolutionnels''.] | ||
Source: ''Google machine learning glossary'' | Source: ''Google machine learning glossary'' |
Version du 7 juillet 2019 à 16:13
Définition
Processus qui consiste à remplacer les valeurs contenues dans une fenêtre d'observation (l'échantillon) par une valeur unique calculée à partir des valeurs de l'échantillon. Cela permet de rajouter de l’invariance spatiale lors de l’extraction d'attributs tout en réduisant la dimension des données.
Le calcul à la base du sous-échantillonnage peut être de différentes natures mais les types les plus utilisés sont le sous-échantillonnage par valeur maximale (Max Pooling) et le sous-échantillonnage par valeur moyenne (Average Pooling).
Français
sous-échantillonnage n.m.
agrégation n.f.
regroupement n.m.
pooling nom anglais
Anglais
pooling
Source: Amidi, Shervine et Afshine Amidi, Pense-bête de réseaux de neurones convolutionnels.
Source: Google machine learning glossary
Source: L'Apprentissage profond, Goodfellow, Bangio, Courville p.344
Contributeurs: Evan Brach, Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki