« Unité linéaire rectifiée » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 29 : | Ligne 29 : | ||
Source: Amidi, Shervine et Afshine Amidi, Pense-bête de réseaux de neurones convolutionnels, https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels, consulté le 18 mai 2019. | Source: Amidi, Shervine et Afshine Amidi, Pense-bête de réseaux de neurones convolutionnels, https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels, consulté le 18 mai 2019. | ||
[https://en.Wikipedia.org/wiki/Rectifier_(neural_networks) Source: | [https://en.Wikipedia.org/wiki/Rectifier_(neural_networks) Source: Wikipedia, ''Rectifier (neural networks)''] | ||
[[Utilisateur:Patrickdrouin | Source: Termino]] | [[Utilisateur:Patrickdrouin | Source: Termino]] |
Version du 9 juillet 2019 à 17:20
Définition
Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction .
Français
unité linéaire rectifiée loc. nom. fém.
ULR acronyme. fém.
redresseur simple alternance loc. nom. masc.
redresseur demi-onde loc. nom. fém.
Anglais
rectified linear unit
ReLU
Source: Amidi, Shervine et Afshine Amidi, Pense-bête de réseaux de neurones convolutionnels, https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels, consulté le 18 mai 2019.
Contributeurs: Evan Brach, Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki