« Unité linéaire rectifiée » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
==Domaine==
==Domaine==
[[Category:Vocabulary]]
[[Category:Vocabulary]]
[[Category:Intelligence artificielle]]
[[Category:Intelligence artificielle]]Intelligence artificielle<br>
Intelligence artificielle<br>
[[Category:Apprentissage automatique]]Apprentissage automatique<br>
[[Catégorie:Apprentissage automatique]]
[[Category:Apprentissage profond]]Apprentissage profond <br>
Apprentissage automatique<br>
[[Catégorie:Apprentissage profond]]
Apprentissage profond <br>
[[Category:Coulombe2]]
[[Category:Coulombe2]]
[[Category:scotty2]]
[[Category:scotty2]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:Termino 2019]]


<br>
<br>


==Définition==
==Définition==
Les unités linéaires rectifiées - ULR (en anglais ''rectified linear unit'' - ReLU) sont utilisées comme fonctions d'activation dans les réseaux de neurones profonds.
Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction <math>{\displaystyle f(x)=x^{+}=\max(0,x)}</math>.


==Français==
==Français==


'''unité linéaire rectifiée'''   n.f.
'''unité linéaire rectifiée''' n. f.


'''ULR''' n. f.
'''redresseur simple alternance ''' n. m.
'''redresseur demi-onde''' m. m.


==Anglais==
==Anglais==
'''rectified linear unit'''
'''ReLU'''
'''ReLU'''
'''rectified linear unit''' ('''ReLU''')


<br>
<br>

Version du 2 juin 2019 à 15:07

Domaine

Intelligence artificielle
Apprentissage automatique
Apprentissage profond


Définition

Fonction d'activation utilisée dans les réseau de neurones profonds correspondant à la fonction .

Français

unité linéaire rectifiée n. f.

ULR n. f.

redresseur simple alternance n. m.

redresseur demi-onde m. m.

Anglais

rectified linear unit

ReLU



source : wikipedia