« Sous-échantillonnage » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 26 : Ligne 26 :
<small>
<small>


[https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels  Source: Amidi, Shervine et Afshine Amidi,] ''Pense-bête de réseaux de neurones convolutionnels'', consulté le 18 mai 2019.
[https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels  Source: Amidi, Shervine et Afshine Amidi, ''Pense-bête de réseaux de neurones convolutionnels''.


Source: Google machine learning glossary
Source: ''Google machine learning glossary''


Source: L'Apprentissage profond, Goodfellow, Bangio, Courville p.344
Source: ''L'Apprentissage profond'', Goodfellow, Bangio, Courville p.344


[[Utilisateur:Patrickdrouin  | Source : Termino]]
[[Utilisateur:Patrickdrouin  | Source: Termino]]

Version du 7 juillet 2019 à 16:12


Définition

Processus qui consiste à remplacer les valeurs contenues dans une fenêtre d'observation (l'échantillon) par une valeur unique calculée à partir des valeurs de l'échantillon. Cela permet de rajouter de l’invariance spatiale lors de l’extraction d'attributs tout en réduisant la dimension des données.

Le calcul à la base du sous-échantillonnage peut être de différentes natures mais les types les plus utilisés sont le sous-échantillonnage par valeur maximale (Max Pooling) et le sous-échantillonnage par valeur moyenne (Average Pooling).

Français

sous-échantillonnage n.m.

agrégation n.f.

regroupement n.m.

pooling nom anglais

Anglais

pooling



[https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels Source: Amidi, Shervine et Afshine Amidi, Pense-bête de réseaux de neurones convolutionnels.

Source: Google machine learning glossary

Source: L'Apprentissage profond, Goodfellow, Bangio, Courville p.344

Source: Termino