« Unité linéaire rectifiée » : différence entre les versions
m (Remplacement de texte : « ↵<small> » par « ==Sources== ») |
Aucun résumé des modifications |
||
Ligne 15 : | Ligne 15 : | ||
'''ReLU''' | '''ReLU''' | ||
==Sources== | ==Sources== | ||
[https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels, Source: Amidi, Shervine et Afshine Amidi, ''Pense-bête de réseaux de neurones convolutionnels''.] | [https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels, Source : Amidi, Shervine et Afshine Amidi, ''Pense-bête de réseaux de neurones convolutionnels''.] | ||
[https://en.Wikipedia.org/wiki/Rectifier_(neural_networks) Source: Wikipedia, ''Rectifier (neural networks)''] | [https://en.Wikipedia.org/wiki/Rectifier_(neural_networks) Source : Wikipedia, ''Rectifier (neural networks)''] | ||
[[Utilisateur:Patrickdrouin | Source: Termino]] | [[Utilisateur:Patrickdrouin | Source : Termino]] | ||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
[[Category:Termino 2019]] | [[Category:Termino 2019]] |
Version du 14 avril 2024 à 22:19
Définition
Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction .
Français
unité linéaire rectifiée
ULR acronyme.
redresseur simple alternance
redresseur demi-onde
Anglais
rectified linear unit
ReLU
Sources
Source : Amidi, Shervine et Afshine Amidi, Pense-bête de réseaux de neurones convolutionnels.
Contributeurs: Evan Brach, Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki