« Unité linéaire rectifiée » : différence entre les versions


m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
Aucun résumé des modifications
 
Ligne 15 : Ligne 15 :


'''ReLU'''
'''ReLU'''
==Sources==
==Sources==


[https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels, Source: Amidi, Shervine et Afshine Amidi, ''Pense-bête de réseaux de neurones convolutionnels''.]
[https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels,   Source : Amidi, Shervine et Afshine Amidi, ''Pense-bête de réseaux de neurones convolutionnels''.]


[https://en.Wikipedia.org/wiki/Rectifier_(neural_networks) Source: Wikipedia, ''Rectifier (neural networks)'']
[https://en.Wikipedia.org/wiki/Rectifier_(neural_networks)   Source : Wikipedia, ''Rectifier (neural networks)'']


[[Utilisateur:Patrickdrouin  | Source: Termino]]
[[Utilisateur:Patrickdrouin  |   Source : Termino]]


[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Termino 2019]]
[[Category:Termino 2019]]

Dernière version du 14 avril 2024 à 23:19

Définition

Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction .

Français

unité linéaire rectifiée

ULR acronyme.

redresseur simple alternance

redresseur demi-onde

Anglais

rectified linear unit

ReLU

Sources

Source : Amidi, Shervine et Afshine Amidi, Pense-bête de réseaux de neurones convolutionnels.

Source : Wikipedia, Rectifier (neural networks)

Source : Termino