« Unité linéaire rectifiée » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
==Domaine==
==Domaine==
[[Category:Vocabulary]]
[[Category:Vocabulary]]
[[Category:Intelligence artificielle]]Intelligence artificielle<br>
[[Category:Intelligence artificielle]]
[[Catégorie:Apprentissage automatique]]Apprentissage automatique<br>
Intelligence artificielle<br>
[[Catégorie:Apprentissage profond]]Apprentissage profond <br>
[[Catégorie:Apprentissage automatique]]
Apprentissage automatique<br>
[[Catégorie:Apprentissage profond]]
Apprentissage profond <br>
[[Category:Coulombe2]]
[[Category:Coulombe2]]
[[Category:scotty]]
[[Category:scotty]]
<br>
<br>


==Définition==  
==Définition==
ULR abréviation pour unité(s) linéaire(s) rectifiée(s).
Les unités linéaires rectifiées - ULR (en anglais ''rectified linear unit'' - ReLU) sont utilisées comme fonctions d'activation dans les réseaux de neurones profonds.
 
Les ULR sont utilisées comme fonctions d'activation dans les réseaux de neurones profonds.


==Français==
==Français==
Ligne 21 : Ligne 23 :
'''ReLU'''
'''ReLU'''


 
'''rectified linear unit''' ('''ReLU''')




Ligne 27 : Ligne 29 :




[https://en.wikipedia.org/wiki/Rectifier_(neural_networks)   source : wikipedia ]
[https://en.wikipedia.org/wiki/Rectifier_(neural_networks) source : wikipedia]
<br>
<br>

Version du 1 juin 2019 à 21:09

Domaine

Intelligence artificielle
Apprentissage automatique
Apprentissage profond


Définition

Les unités linéaires rectifiées - ULR (en anglais rectified linear unit - ReLU) sont utilisées comme fonctions d'activation dans les réseaux de neurones profonds.

Français

unité linéaire rectifiée n.f.


Anglais

ReLU

rectified linear unit (ReLU)




source : wikipedia