« Unité linéaire rectifiée » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
==Domaine==
 
[[Category:Vocabulary2]]
[[Category:Vocabulary2]]
[[Category:Intelligence artificielle]]Intelligence artificielle<br>
[[Category:Intelligence artificielle]]
[[Category:Apprentissage automatique]]Apprentissage automatique<br>
[[Category:Apprentissage automatique]]
[[Category:Apprentissage profond]]Apprentissage profond <br>
[[Category:Apprentissage profond]]
[[Category:Coulombe2]]
[[Category:Coulombe2]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
Ligne 25 : Ligne 25 :


'''ReLU'''
'''ReLU'''
 
<small>
 


Source : Udvari, Tibor (sans date). Les réseaux de neurones, https://ml4a.github.io/ml4a/fr/neural_networks, consulté le 7 juin 2019.
Source : Udvari, Tibor (sans date). Les réseaux de neurones, https://ml4a.github.io/ml4a/fr/neural_networks, consulté le 7 juin 2019.
Ligne 34 : Ligne 33 :
[https://en.wikipedia.org/wiki/Rectifier_(neural_networks) source : wikipedia]
[https://en.wikipedia.org/wiki/Rectifier_(neural_networks) source : wikipedia]


[[Utilisateur:Patrickdrouin  | Source : Termino  ]]  
[[Utilisateur:Patrickdrouin  | Source : Termino  ]]
 
<br>

Version du 20 juin 2019 à 09:56


Définition

Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction .

Français

unité linéaire rectifiée n. f.

ULR n. f.

redresseur simple alternance n. m.

redresseur demi-onde m. m.

Anglais

rectified linear unit

ReLU

Source : Udvari, Tibor (sans date). Les réseaux de neurones, https://ml4a.github.io/ml4a/fr/neural_networks, consulté le 7 juin 2019.

Source : Amidi, Shervine et Afshine Amidi, Pense-bête de réseaux de neurones convolutionnels, https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels, consulté le 18 mai 2019.

source : wikipedia

Source : Termino