« Unité linéaire rectifiée » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 27 : | Ligne 27 : | ||
<small> | <small> | ||
[https://ml4a.github.io/ml4a/fr/neural_networks Source: Udvari, Tibor (sans date). Les réseaux de neurones] | |||
Source: Amidi, Shervine et Afshine Amidi, Pense-bête de réseaux de neurones convolutionnels, https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels, consulté le 18 mai 2019. | Source: Amidi, Shervine et Afshine Amidi, Pense-bête de réseaux de neurones convolutionnels, https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels, consulté le 18 mai 2019. |
Version du 7 juillet 2019 à 16:41
Définition
Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction .
Français
unité linéaire rectifiée n. f.
ULR n. f.
redresseur simple alternance n. m.
redresseur demi-onde m. m.
Anglais
rectified linear unit
ReLU
Source: Udvari, Tibor (sans date). Les réseaux de neurones
Source: Amidi, Shervine et Afshine Amidi, Pense-bête de réseaux de neurones convolutionnels, https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels, consulté le 18 mai 2019.
Contributeurs: Evan Brach, Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki