« Unité linéaire rectifiée » : différence entre les versions


m (Remplacement de texte — « <!-- Vocabulary2 --> » par «  »)
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
[[Category:Intelligence artificielle]]
[[Category:Apprentissage automatique]]
[[Category:Apprentissage profond]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Termino 2019]]
==Définition==
==Définition==
Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction <math>{\displaystyle f(x)=x^{+}=\max(0,x)}</math>.
Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction <math>{\displaystyle f(x)=x^{+}=\max(0,x)}</math>.
Ligne 32 : Ligne 22 :


[[Utilisateur:Patrickdrouin  | Source: Termino]]
[[Utilisateur:Patrickdrouin  | Source: Termino]]
[[Category:Intelligence artificielle]]
[[Category:Apprentissage automatique]]
[[Category:Apprentissage profond]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Termino 2019]]

Version du 9 mai 2020 à 09:15

Définition

Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction .

Français

unité linéaire rectifiée loc. nom. fém.

ULR acronyme. fém.

redresseur simple alternance loc. nom. masc.

redresseur demi-onde loc. nom. masc.

Anglais

rectified linear unit

ReLU

Source: Amidi, Shervine et Afshine Amidi, Pense-bête de réseaux de neurones convolutionnels.

Source: Wikipedia, Rectifier (neural networks)

Source: Termino