« Unité linéaire rectifiée » : différence entre les versions
m (Remplacement de texte — « <!-- Vocabulary2 --> » par « ») |
Aucun résumé des modifications Balise : Éditeur de wikicode 2017 |
||
Ligne 1 : | Ligne 1 : | ||
==Définition== | ==Définition== | ||
Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction <math>{\displaystyle f(x)=x^{+}=\max(0,x)}</math>. | Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction <math>{\displaystyle f(x)=x^{+}=\max(0,x)}</math>. | ||
Ligne 32 : | Ligne 22 : | ||
[[Utilisateur:Patrickdrouin | Source: Termino]] | [[Utilisateur:Patrickdrouin | Source: Termino]] | ||
[[Category:Intelligence artificielle]] | |||
[[Category:Apprentissage automatique]] | |||
[[Category:Apprentissage profond]] | |||
[[Category:GRAND LEXIQUE FRANÇAIS]] | |||
[[Category:Termino 2019]] |
Version du 9 mai 2020 à 09:15
Définition
Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction .
Français
unité linéaire rectifiée loc. nom. fém.
ULR acronyme. fém.
redresseur simple alternance loc. nom. masc.
redresseur demi-onde loc. nom. masc.
Anglais
rectified linear unit
ReLU
Source: Amidi, Shervine et Afshine Amidi, Pense-bête de réseaux de neurones convolutionnels.
Contributeurs: Evan Brach, Claude Coulombe, Jacques Barolet, Patrick Drouin, wiki