« Unité linéaire rectifiée » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 26 : Ligne 26 :
'''ReLU'''
'''ReLU'''
<small>
<small>
[https://ml4a.github.io/ml4a/fr/neural_networks  Source: Udvari, Tibor (sans date). Les réseaux de neurones]


Source: Amidi, Shervine et Afshine Amidi, Pense-bête de réseaux de neurones convolutionnels, https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels, consulté le 18 mai 2019.
Source: Amidi, Shervine et Afshine Amidi, Pense-bête de réseaux de neurones convolutionnels, https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels, consulté le 18 mai 2019.

Version du 7 juillet 2019 à 16:42


Définition

Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction .

Français

unité linéaire rectifiée n. f.

ULR n. f.

redresseur simple alternance n. m.

redresseur demi-onde m. m.

Anglais

rectified linear unit

ReLU

Source: Amidi, Shervine et Afshine Amidi, Pense-bête de réseaux de neurones convolutionnels, https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels, consulté le 18 mai 2019.

Source: wikipedia, Rectifier (neural networks)

Source: Termino