« Unité linéaire rectifiée » : différence entre les versions


Aucun résumé des modifications
m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
Ligne 15 : Ligne 15 :


'''ReLU'''
'''ReLU'''
<small>
==Sources==


[https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels, Source: Amidi, Shervine et Afshine Amidi, ''Pense-bête de réseaux de neurones convolutionnels''.]
[https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels, Source: Amidi, Shervine et Afshine Amidi, ''Pense-bête de réseaux de neurones convolutionnels''.]

Version du 28 janvier 2024 à 13:54

Définition

Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction .

Français

unité linéaire rectifiée

ULR acronyme.

redresseur simple alternance

redresseur demi-onde

Anglais

rectified linear unit

ReLU

Sources

Source: Amidi, Shervine et Afshine Amidi, Pense-bête de réseaux de neurones convolutionnels.

Source: Wikipedia, Rectifier (neural networks)

Source: Termino