« Unité linéaire rectifiée » : différence entre les versions
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
m (Remplacement de texte : « Category:Termino 2019 » par « ») |
||
(33 versions intermédiaires par 4 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction <math>{\displaystyle f(x)=x^{+}=\max(0,x)}</math>. | Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction <math>{\displaystyle f(x)=x^{+}=\max(0,x)}</math>. | ||
==Français== | ==Français== | ||
'''unité linéaire rectifiée''' | |||
'''ULR''' <small>acronyme. </small> | |||
'''ULR''' | |||
'''redresseur simple alternance ''' | '''redresseur simple alternance''' | ||
'''redresseur demi-onde''' | '''redresseur demi-onde''' | ||
==Anglais== | ==Anglais== | ||
Ligne 30 : | Ligne 16 : | ||
'''ReLU''' | '''ReLU''' | ||
==Sources== | |||
[https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels, Source : Amidi, Shervine et Afshine Amidi, ''Pense-bête de réseaux de neurones convolutionnels''.] | |||
[https://en.Wikipedia.org/wiki/Rectifier_(neural_networks) Source : Wikipedia, ''Rectifier (neural networks)''] | |||
[[Utilisateur:Patrickdrouin | Source : Termino]] | |||
[ | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
Dernière version du 11 octobre 2024 à 08:31
Définition
Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction .
Français
unité linéaire rectifiée
ULR acronyme.
redresseur simple alternance
redresseur demi-onde
Anglais
rectified linear unit
ReLU
Sources
Source : Amidi, Shervine et Afshine Amidi, Pense-bête de réseaux de neurones convolutionnels.
Contributeurs: Evan Brach, Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki