« Unité linéaire rectifiée » : différence entre les versions


(nouveau terme)
Balise : Éditeur de wikicode 2017
m (Remplacement de texte : « Category:Termino 2019 » par «  »)
 
(58 versions intermédiaires par 5 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
== Domaine ==
==Définition==
[[Category:Vocabulary]]<br/>  
Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction <math>{\displaystyle f(x)=x^{+}=\max(0,x)}</math>.
[[Category:Intelligence artificielle]]Intelligence artificielle<br/>
[[Catégorie:Apprentissage automatique]] Apprentissage automatique<br/>
[[Catégorie:Apprentissage profond]] Apprentissage profond<br/>
[[Category:Coulombe]]Coulombe<br/>
[[Catégorie:Scotty]]<br/>


== Définition ==  
==Français==
ULR abréviation pour unité(s) linéaire(s) rectifiée(s). Les ULR sont utilisées comme fonctions d'activation dans les réseaux de neurones profonds.
'''unité linéaire rectifiée''' 


== Français ==
'''ULR''' <small>acronyme.  </small>
ULR pour unité linéaire rectifiée


<h3>Discussion:<h3/>
'''redresseur simple alternance'''
La traduction adaptation des abréviations et acronymes pose des défis particuliers dont il faut discuter.


== Anglais ==
'''redresseur demi-onde'''
ReLU


Short for Rectified Linear Unit(s). ReLUs are often used as activation functions in Deep Neural Networks. They are defined by f(x) = max(0, x). The advantages of ReLUs over functions like tanhinclude that they tend to be sparse (their activation easily be set to 0), and that they suffer less from the vanishing gradient problem. ReLUs are the most commonly used activation function in Convolutional Neural Networks. There exist several variations of ReLUs, such as Leaky ReLUs, Parametric ReLU (PReLU) or a smoother softplusapproximation.
==Anglais==
'''rectified linear unit'''


• Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification
'''ReLU'''


==Sources==


• Rectifier Nonlinearities Improve Neural Network Acoustic Models
[https://stanford.edu/~shervine/l/fr/teaching/cs-230/pense-bete-reseaux-neurones-convolutionnels,  Source : Amidi, Shervine et Afshine Amidi, ''Pense-bête de réseaux de neurones convolutionnels''.]


[https://en.Wikipedia.org/wiki/Rectifier_(neural_networks)  Source : Wikipedia, ''Rectifier (neural networks)'']


• Rectified Linear Units Improve Restricted Boltzmann Machines
[[Utilisateur:Patrickdrouin  |  Source : Termino]]
 
[[Category:GRAND LEXIQUE FRANÇAIS]]

Dernière version du 11 octobre 2024 à 08:31

Définition

Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction .

Français

unité linéaire rectifiée

ULR acronyme.

redresseur simple alternance

redresseur demi-onde

Anglais

rectified linear unit

ReLU

Sources

Source : Amidi, Shervine et Afshine Amidi, Pense-bête de réseaux de neurones convolutionnels.

Source : Wikipedia, Rectifier (neural networks)

Source : Termino